Searching for articles
Search strategy
Wir beabsichtigen, ein breites Spektrum an bibliographischen Datenbanken, Online-Suchmaschinen und grauen Literaturquellen zu durchsuchen, um so umfassend wie möglich zu sein. Wir werden die Suche nicht nach Datumsbereichen oder Dokumenttypen einschränken. Da beide Autoren an der University of California, Los Angeles, tätig sind, werden sich unsere Recherchen auf die Abonnements dieser Einrichtung beschränken. Darüber hinaus werden die Recherchen ausschließlich in englischer Sprache durchgeführt, da beide Autoren keine anderen Sprachen beherrschen. Wir werden webbasierte Recherchen (z. B. in Online-Suchmaschinen und auf Websites von Organisationen) mit dem Webbrowser Google Chrome durchführen und dabei den „Inkognito“-Modus verwenden, bei dem der Browserverlauf privat bleibt und eine Person das Web durchsuchen kann, ohne lokale Daten zu speichern. Außerdem werden wir Cookies und den Browserverlauf manuell löschen, bevor wir webbasierte Suchen durchführen. Auf diese Weise sollten frühere Suchvorgänge und der Standort des Computers keinen Einfluss auf die Suchergebnisse haben.
Suchstring
Wir nutzten die Einbeziehung von Interessengruppen und führten ein Scoping-Verfahren durch, um alternative Suchstrings zu testen. Die Stakeholder identifizierten das Ergebnis der Erfassung, das als Suchbegriff hinzugefügt wurde. Wir verwendeten eine Vergleichsliste, die vier Studien enthielt (siehe Zusatzdatei 1), die wir und die Interessengruppen als bekannte Studien im Bereich der akustischen Wiedergabe für den Naturschutz identifiziert hatten. Diese Studien erfüllen unsere Einschlusskriterien (siehe unten) und sollten bei der Suche auftauchen. Wenn bei einer Suche nicht alle vier Studien gefunden wurden, mussten wir unsere Suchbegriffe aktualisieren. Auf diese Weise haben wir Suchbegriffe festgelegt, die sensibel genug sind, um eine große Anzahl von Studien zu finden, aber auch spezifisch genug, um relevantes Material zu finden (einschließlich aller unserer Benchmark-Studien) (Tabelle 2). Als Beispiele für die Breite der gefundenen Literatur ergab unser Scoping 3829 Ergebnisse in Web of Science und 3808 Treffer in ProQuest (Stand: 8. November 2018) (siehe Datenbanken unten).
Aus Tabelle 2 werden die Begriffe innerhalb der Kategorien „Population“, „Intervention“, „Ergebnis“, „Zusätzliche Deskriptoren für die Intervention“ und „Zusätzliche Deskriptoren für das Ergebnis“ mit dem booleschen Operator „OR“ kombiniert. Die fünf Kategorien werden dann mit dem booleschen Operator „AND“ kombiniert. Ein Sternchen (*) ist ein „Platzhalter“, der für eine beliebige Gruppe von Zeichen steht, auch für kein Zeichen. Anführungszeichen („“) werden verwendet, um exakte Phrasen zu suchen (einschließlich Varianten mit Bindestrich).
Bibliographische Datenbanken
Wir werden mehrere Datenbanken durchsuchen, um verschiedene Arten von Dokumenten abzurufen:
-
Web of Science-(https://webofknowledge.com).
- i.
Core collection.
- ii.
Biosis-Vorschauen.
- iii.
Zoological record.
- i.
-
ProQuest-(https://www.proquest.com).
-
BioRxiv-(https://www.biorxiv.org).
Wir werden Web of Science nutzen, um drei verschiedene Datenbanken zu durchsuchen, um Studien in von Experten begutachteter veröffentlichter Literatur, Konferenzzusammenfassungen und Buchkapiteln zu finden. Bei der Suche in Web of Science werden wir das Suchfeld „Thema“ auswählen. Wir werden ProQuest verwenden, um Studien in Doktor- und Masterarbeiten zu finden, wobei wir nur nach Abstract oder Titel suchen. Wir werden BioRxiv verwenden, um Studien in unveröffentlichten Preprints zu finden. Wir werden die Sammlungen Animal Behavior and Cognition, Ecology, Evolutionary Biology und Zoology in BioRxiv durchsuchen und nach Abstract oder Titel suchen. Suchstrings in BioRxiv dürfen nicht länger als 128 Zeichen sein, daher werden wir mehrere kleinere Strings suchen, die aus unserem ursprünglichen Suchstring erstellt werden (und schließlich alle Suchbegriffe umfassen). Alle separaten Suchvorgänge werden in einem Tabellenkalkulationsblatt sorgfältig dokumentiert, wie unten beschrieben.
Webbasierte Suchmaschinen
Wir werden Google Scholar verwenden, um im Internet nach relevanten Studien zu suchen. Da die Google Scholar-Suche auf eine „Phrase“ (in doppelten Anführungszeichen), eine ODER-Teilzeichenkette und 256 Zeichen beschränkt ist, werden wir unsere Suchbegriffe entsprechend anpassen, indem wir mehrere Suchbegriffe erstellen, die unter diese Parameter fallen. Alle einzelnen Suchvorgänge werden wie unten beschrieben in einem Arbeitsblatt ausführlich dokumentiert. Die ersten 50 Treffer pro Suchbegriff, sortiert nach Relevanz, werden untersucht. Wenn wir neue Zeitschriftenartikel finden, die bei anderen Suchvorgängen (z. B. mit Web of Science) nicht gefunden wurden, werden wir die Nutzung von Google Scholar auf mehr als die ersten 50 Treffer ausdehnen (z. B. auf die ersten 100 Treffer).
Websites von Organisationen/Fachleuten
Wir werden verschiedene Websites von Organisationen durchsuchen, um zusätzliche Veröffentlichungen und Daten innerhalb der grauen Literatur zu finden. In Zusatzdatei 2 haben wir eine Liste von 50 relevanten Websites zusammengestellt, von denen viele von Interessenvertretern empfohlen wurden, darunter Wildtierschutzmanager und Forscher aus verschiedenen internationalen Institutionen. Auch hier gilt, dass die Suchoptionen der einzelnen Websites möglicherweise nicht mit unseren Suchbegriffen kompatibel sind, so dass wir die Suche möglicherweise entsprechend anpassen müssen. Alle Suchmethoden und -ergebnisse werden, wie unten beschrieben, ausführlich in einer Tabelle dokumentiert.
Umfang der Suche
Wir verwendeten eine Vergleichsliste, die vier Studien enthielt (Additional file 1), um festzustellen, ob unsere Suche bekannte Studien auf diesem Gebiet einschloss. Diese Studien wurden uns von Interessenvertretern empfohlen.
Alle Suchvorgänge werden ausführlich in einer Tabelle dokumentiert, die folgende Angaben enthält: Name und URL der Datenbank bzw. Name und URL der Website (bei Online-Suchmaschinen und grauer Literatur), die genaue Suchanfrage, die gesuchten Begriffe (d. h., Thema oder Titel), Datum und Uhrzeit der Suche, Name der Person, die die Suche durchgeführt hat, Anzahl der Treffer sowie Name und Ort der Datei mit den Suchergebnissen.
Aktualisierung der Suche
Wenn die Überprüfung mehr als zwei Jahre in Anspruch nimmt, werden wir unsere Suche wiederholen und nur die Jahre berücksichtigen, für die uns Daten fehlen. Alle Recherchen werden wie oben beschrieben in einer Tabelle dokumentiert.
Artikelscreening und Zulassungskriterien für Studien
Screening-Prozess
Wir werden CADIMA (Software für systematische Überprüfungen) verwenden, um die Suchergebnisse zu speichern und zu organisieren. Duplikate werden identifiziert und zusammengeführt. Die aus den Recherchen hervorgegangenen Artikel werden zunächst auf Titel und Zusammenfassung und dann auf den Volltext geprüft. Unser Hauptziel ist es, Studien zu finden, in denen das Abspielen von heterospezifischen und/oder konspezifischen Rufen verwendet wurde, um Wildtiere zu Erhaltungszwecken anzulocken. Rezensionen werden beibehalten, nur um nach zusätzlicher Primärliteratur zu suchen, die in der Rezension zitiert wird. Konferenzzusammenfassungen werden bewertet, und wenn sie als relevant erachtet werden, wird mit dem/den Autor(en) Kontakt aufgenommen, um zu klären, ob eine gemeinsame Nutzung der Daten möglich ist. Es werden nur Studien berücksichtigt, die in englischer Sprache und aus allen Zeiträumen vorliegen. Artikel, die zwar vorhanden sind, aber nicht auf Englisch (oder nicht übersetzt werden können), werden in einem Anhang zum Bericht aufgeführt. Wenn wir uns nicht sicher sind, ob ein Artikel die Einschlusskriterien erfüllt, tendieren wir zum Einschluss.
Wir führen eine Konsistenzprüfung durch, um festzustellen, ob unsere Einschlusskriterien bei verschiedenen Gutachtern konsistent auf Studien angewendet werden können (z. B. geringe interindividuelle Variation). Wir werden eine zufällige Auswahl von 10 % aller Studien treffen, die aus unserer Suche hervorgegangen sind, und die Übereinstimmung zwischen den Gutachtern bei der Studienauswahl ermitteln, indem wir den Kappa-Wert zwischen drei verschiedenen Gutachtern berechnen. Wir entscheiden, dass unsere Einschlusskriterien robust sind, wenn der Kappa-Wert > 0,60 beträgt, was im Allgemeinen als erhebliche Übereinstimmung gilt. Bevor wir zum vollständigen Screening der Studien übergehen, werden wir die Gründe für Unstimmigkeiten zwischen den Gutachtern erörtern und versuchen, sie zu beseitigen (d. h. eine hohe Konsistenz bei der Studienauswahl zu erreichen). Wir werden die Kriterien überarbeiten und die Konsistenzprüfung erneut durchführen, indem wir zufällig weitere 10 % aller Studien auswählen, wenn wir einen Kappa-Wert ≤ 0,60 erhalten.
Zulässigkeitskriterien
Jede Studie muss jedes der in Tabelle 3 aufgeführten Kriterien erfüllen (getrennt nach PICO-Komponenten).
Alle Studien, die aus der Studienauswahl hervorgehen, sollten experimentell sein und entweder ein BA- (Vorher-Nachher), CI- (Komparator-Intervention) oder BACI-Design (Vorher/Nachher/Komparator/Intervention) aufweisen. Wir schließen Studien aus, die nicht in freier Wildbahn durchgeführt wurden, mit Ausnahme von Studien, die in Gefangenschaft durchgeführt wurden, wenn die Ergebnisse der Studie eines unserer Kriterien erfüllen (siehe Tabelle 1). Wir schließen auch Studien aus, die Playbacks verwenden, um Aspekte der Tierkommunikation (d. h. Signalform, -funktion und -entwicklung) oder soziale Beziehungen zu verstehen, da diese für unsere Hauptfrage nicht relevant sind. Die Autoren haben keine Artikel verfasst, die in dieser systematischen Übersicht berücksichtigt werden könnten. Blumstein hat viele Playback-Experimente durchgeführt, aber keiner der Autoren hat empirische Artikel auf diesem Gebiet im Zusammenhang mit dem Wildtiermanagement veröffentlicht. Daher werden wir bei der Entscheidung über die Aufnahme und kritische Bewertung (siehe unten) von Studien unabhängig sein. Wir werden die ausgeschlossenen Artikel im Volltext mit den Gründen für den Ausschluss gründlich dokumentieren und diese Liste als ergänzendes Material in unserer Übersichtsarbeit zur Verfügung stellen.
Bewertung der Studienvalidität
Um Unterschiede in der Studienvalidität und der Anfälligkeit für Verzerrungen festzustellen, werden verschiedene Faktoren bewertet, um die Studien in eine Rangfolge von geringer, mittlerer oder hoher Anfälligkeit für Verzerrungen einzuordnen (Tabelle 4). Wir werden detailliert aufzeichnen, wie wir jede Studie anhand der Faktoren auf transparente Weise bewertet haben.
Ein BA-Design, bei dem das Ergebnis vor und nach der Durchführung der Intervention gemessen wird, ist anfällig für Verzerrungen, da zeitliche Faktoren wie der Klimawandel verwirrende Effekte einführen können (im Falle einer langfristigen BA-Studie). Dies ist insbesondere dann ein Problem, wenn das Experiment nur an einem einzigen Standort durchgeführt wird. Daher sind CI- und BACI-Designs sowie mehrfach replizierte Standorte am aussagekräftigsten und würden als wenig verzerrend eingestuft werden. Beobachtungsstudien, sofern vorhanden, werden als sehr anfällig für Verzerrungen eingestuft.
Die Auswahl der Studienstandorte/Flächen könnte einen wichtigen Einfluss auf die Anfälligkeit einer Studie für Verzerrungen haben. Idealerweise sollten die Parzellen in Bezug auf Größe, Struktur und Lebensraum relativ homogen sein, um mögliche Störvariablen zu vermeiden. Auch die Dauer der Studie ist wichtig. Die zum Anlocken der Tiere verwendeten Playbacks können auf Tiere abzielen, die nach dem Verlassen ihres Geburtsgebiets eine Siedlungsentscheidung treffen, auf Tiere, die geeignete Brutplätze suchen, oder auf Tiere, die während ihrer Fernwanderung geeignete Rastplätze finden. Bei den beiden letzteren handelt es sich um Orte, die in der Regel nur vorübergehend genutzt werden. Im Idealfall werden die Ergebnisse der Studien über mehr als ein Jahr hinweg gemessen, um festzustellen, ob die Ansiedlung oder das Fehlen einer solchen langfristig anhält, was letztlich für die Verantwortlichen für den Naturschutz am nützlichsten wäre. Bei Studien, die Playbacks verwenden, um Tiere für den Fang anzulocken, sind langfristige Verhaltensreaktionen weniger wichtig.
Wir werden die Studien anhand eines Formulars zur Bewertung der Validität nach ihrer Anfälligkeit für Verzerrungen einstufen (Tabelle 4). Die Autoren werden die Validität der methodischen Details (Stichprobengröße, Details zu den verwendeten Playbacks und deren Umsetzung, Anzahl der Besuche, Details zur Ergebnismessung) und der statistischen Analysen je nach Art der Studie individuell beurteilen, da diese je nach Forschungsfrage und Studiendesign variieren. Studien, die bei fünf oder mehr Faktoren eine hohe Anfälligkeit für Verzerrungen aufweisen, werden von unserer Überprüfung ausgeschlossen. Alle ausgeschlossenen Studien werden in einem Anhang zur Übersichtsarbeit aufgeführt, zusammen mit den Gründen für ihren Ausschluss. Wir werden die Anfälligkeit jeder Studie für Verzerrungen (hoch, mittel, gering) in unserer Übersichtsarbeit angeben. Die kritische Bewertung kann dazu dienen, Schlussfolgerungen zu relativieren (d. h. Studien in der Synthese zu gewichten), wenn wir eine große Varianz der Verzerrungen zwischen den Studien feststellen.
In Anlehnung an andere systematische Überprüfungsprotokolle werden wir die Konsistenz zwischen den Gutachtern bei der kritischen Bewertung ermitteln, indem wir die Metadateneinträge von drei verschiedenen Gutachtern für eine zufällig ausgewählte Untergruppe von 10 % der eingeschlossenen Studien vergleichen. Etwaige Diskrepanzen zwischen den Gutachtern werden besprochen, und die Metadaten und Kategoriecodes werden angepasst, bis ein Konsens erreicht ist. Kappa-Werte werden in dieser Phase nicht berechnet, da wir eine vollständige Übereinstimmung bei der kritischen Beurteilung anstreben.
Datenkodierungs- und -extraktionsstrategie
Die Metadaten werden aus Studien extrahiert, die die Auswahlkriterien erfüllen. Es werden verschiedene Arten von Daten gesammelt (siehe Additional file 3), einschließlich methodischer Informationen, die Naturschutzmanager über die effektive Umsetzung der Verwendung von Playbacks zum Anlocken von Tieren informieren könnten, sowie verschiedene Kovariaten, die die Studienergebnisse beeinflussen könnten (d. h. potenzielle Effektmodifikatoren).
Für die Datenextraktion werden nur quantitative Studienergebnisse extrahiert, einschließlich des/der Mittelwerts/Mittelwerte, der Schätzung(en) der Variation (Standardfehler, Standardabweichung, Konfidenzintervall usw.) und des/der Stichprobenumfangs/Stichprobengröße der gemessenen Ergebnisse. Diese Informationen sind in Tabellen, Abbildungen oder im Text zu finden. Wir verwenden Bildanalysesoftware (z. B. WebPlotDigitizer), um Mittelwerte und Variationsmaße aus den Abbildungen zu extrahieren, wenn die Studien keine Rohdaten oder diese Werte im Text enthalten. Wenn nur Rohdaten vorgelegt werden, berechnen wir die zusammenfassenden Statistiken. Die Autoren werden kontaktiert, wenn diese Daten nicht klar dargestellt oder extrahierbar sind. Es werden verschiedene Daten extrahiert, darunter Details zur Population und zu den Ergebniskomponenten sowie Informationen zum Studienort, zum Studiendesign und zur Methodik (siehe Zusatzdatei 3 für Details).
Wenn ein Artikel fehlende oder unklare Informationen oder Daten enthält, werden wir die Autoren um Klarstellung bitten. Wenn die Autoren nicht antworten, können diese Studien möglicherweise nicht in die endgültige Überprüfung einbezogen werden (in Fällen, in denen Mittelwerte und Variationsmaße nicht bekannt sind), oder sie werden während des kritischen Beurteilungsprozesses niedriger eingestuft. Wir werden aufzeichnen, bei welchen Studien wir uns nicht sicher waren, und sie zusammen mit den Gründen für ihren Ausschluss in einen Anhang zur Übersicht aufnehmen. Die extrahierten Datensätze werden als zusätzliche Dateien in der Übersichtsarbeit zur Verfügung gestellt.
Um die Konsistenz der Datenextraktion zwischen den Gutachtern zu ermitteln, werden wir bei der kritischen Bewertung die gleichen Methoden wie oben anwenden. Wir vergleichen die Metadaten und Dateneinträge von drei verschiedenen Gutachtern für eine zufällig ausgewählte Untergruppe von 10 % der eingeschlossenen Studien. Etwaige Diskrepanzen zwischen den Gutachtern werden diskutiert und Anpassungen des Metadatenblatts und der Kategoriecodes werden vorgenommen, bis ein Konsens erreicht ist.
Potenzielle Effektmodifikatoren/Gründe für Heterogenität
Wir haben uns mit Managern der Wildtiererhaltung (Interessenvertretern) über mögliche Quellen der Heterogenität beraten. Wir haben eine Liste von Faktoren erstellt, die von den Beteiligten als wichtig oder potenziell wichtig eingestuft wurden (siehe unten). Wir haben auch andere Einflussfaktoren aufgeführt, von denen wir annahmen, dass sie die Wirksamkeit von akustischen Playbacks beeinflussen könnten. Die Quellen der Heterogenität sind auch in unserer Liste der zu extrahierenden Metadaten aufgeführt.
Effekte in Bezug auf den Studienorganismus
-
Taxa.
-
Familie.
-
Gruppe.
-
Spezies.
-
Körpergröße.
-
Lebensdauer.
-
Nacht- oder Tagaktivität.
Auswirkungen in Bezug auf den Standort
-
Land.
-
Breitengrad und Längengrad.
-
Lebensraumtyp.
Effekte im Zusammenhang mit der Methodik
-
Typ des Playbacks (konspezifisch, heterospezifisch oder beides).
-
Playbacks bei Nacht (Jahre/n).
-
Rückmeldungen, die auf nächtliche Migranten gerichtet sind (Jahre/n).
-
Dauer der Untersuchung in einem bestimmten Jahr (in Tagen).
-
Dauer der Untersuchung in Jahren.
-
Dauer der Wiedergabe pro Tag (in Stunden).
-
Prozent der Zeit, in der der Stimulus während der Wiedergabedauer präsent ist.
-
Bereich (in ha), in dem die Wiedergabe erfolgt.
-
Anzahl der verwendeten Lautsprecher.
-
Amplitude, Frequenzbereich und Lautstärke der Wiedergabe(n).
-
Verwendete auditorische Stimuli (Jahre/n).
-
Verwendete Stimuli einer anderen sensorischen Modalität (z. B.,
-
Zufällige Stille in der Wiedergabe (Jahre/n).
Effekte in Bezug auf das Ergebnis
-
Art des gemessenen Ergebnisses (z. B., Playbacks könnten für die kurzfristige Anlockung von Tieren effektiver sein als für die langfristige Ansiedlung).
Datensynthese und -präsentation
Wir werden in unserer Übersicht eine narrative Datensynthese erstellen, die die Ergebnisse aller Studien zusammenfasst. Darin wird die Gesamtheit der Belege beschrieben und wie belastbar die Ergebnisse insgesamt sind. Die Ergebnisse werden in Tabellen oder grafischen Darstellungen zusammengefasst, um allgemeine Themen oder Trends, die Konsistenz der Wirkung der Intervention, Studiencluster, Muster von Faktoren oder Effektmodifikatoren und/oder Wissenslücken zu identifizieren.
Darüber hinaus beabsichtigen wir, in unserer narrativen Synthese anzugeben, ob wir in der Lage waren, die Fragen der Beteiligten zu beantworten. Falls nicht, werden wir diese wichtigen Wissenslücken hervorheben. Die Stakeholder schlugen außerdem vor, eine Roadmap zu erstellen, die aufzeigt, welche Fragen noch unbeantwortet sind, und Vorschläge zu machen, wie diese am besten empirisch untersucht werden können. Schließlich interessierten sich die Beteiligten auch für mögliche negative Auswirkungen der Verwendung von Playbacks. So könnten beispielsweise akustische Playbacks ein Tier erfolgreich in einen gewünschten Lebensraum locken, aber der Reproduktionserfolg des Tieres in diesem Lebensraum könnte geringer sein (siehe ). Solche Informationen würden, falls sie gefunden werden, in unsere erzählerische Synthese einfließen. Wenn wir eine ausreichende Anzahl von Studien (mehr als zwei) finden, die das gleiche oder ein ähnliches Ergebnis messen, werden wir eine quantitative Synthese der Daten (d. h. eine Meta-Analyse) durchführen. In diesem Fall werden die Studien nach der Menge der Informationen, die sie liefern, gewichtet (z. B. nach der inversen Varianz). Wir berechnen Hedges‘ g als Maß für die Effektgröße für jede Studie und kombinieren diese Ergebnisse, um einen einzigen zusammenfassenden Effekt zu erhalten. Wenn wir eine formale Meta-Analyse durchführen, werden wir auf jeden Fall Heterogenitätsstatistiken berechnen und versuchen zu verstehen, welche Arten/Lebensgeschichten mit bestimmten Arten von Reaktionen verbunden sind. Wenn möglich, werden wir eine Schätzung der Publikationsverzerrung vornehmen (d. h. statistisch signifikante Ergebnisse werden mit größerer Wahrscheinlichkeit veröffentlicht) und Fail-Safe-Zahlen berechnen, die die Anzahl der unveröffentlichten Studien in der Meta-Analyse schätzen. Genauere Einzelheiten der quantitativen Analyse werden erst bekannt sein, wenn die Artikel auf ihren Inhalt und ihre Qualität hin bewertet worden sind.