von Inge Beckers
Wir nehmen unsere Umwelt mit verschiedenen Sinnen wahr und kombinieren unterschiedliche Eindrücke im Gehirn zu einer Annahme. Ähnlich funktioniert auch unser Insektenmonitoring.
Mit einem Multisensorsystem zeichnen wir diverse optische, mechanische und akustische Signale von Insekten auf. Ein künstliches neuronales Netz wird mit diesen Daten trainiert, um aus der Kombination der Informationen Aussagen über Insekten Spezies mit möglichst hoher Wahrscheinlichkeit zu treffen. Da das Verhalten der Insekten stark von äußeren Einflussfaktoren abhängt, ist auch die Aufzeichnung lokaler Wetterdaten wichtig. Uns ist es wichtig, dass die Insekten dabei unbeschadet bleiben.
Ausgangspunkt ist eine standardisierte Malaisefalle, die auch im klassischen Insektenmonitoring eingesetzt wird. Auf dem Weg durch die Falle passieren die Insekten ein Kamerasystem und weitere Sensorik. Am Ausgang fliegen die Insekten dem Licht entgegen und vorbei an einem Wingbeatsensor der den Flügelschlag aufnimmt. Mehrere Lichtschranken sorgen dafür, dass die Sensorik für Insekten unterschiedlicher Größe zuverlässig startet und sie zählt. Die Daten werden mit einem Raspberry-Pi Minicomputer aufgenommen und das Insekt auf diesem direkt klassifiziert.
Wir arbeiten zunächst mit 2 Raspberry-Pi Kamerakonfigurationen: Zum einen werden Insekten jeweils von vorne und von oben fotografiert. Die Aufnahmen mit dieser Kameraanordnung müssen eine ausreichend hohe Auflösung besitzen, um charakteristische Details von Insekten, wie z.B. die Behaarung, die Flügelstruktur und die Farbe darauf wiederzugeben, sodass Expert*innen (Entomolog*innen) die Insekten bestimmen können. Sind die Bilder einer Insektenart zugeordnet bezeichnen wir diese als ‚gelabelt‘ und sie können als Grundwahrheit für das Training der KI verwendet werden. Synchron fotografieren wir die Insekten in einer zweiten Konfiguration mit einem anderen Kameratyp (einer einfachen Raspberry-Pi v2). Auf diese Weise sind auch diese Bilder gelabelt. In unserem finalen Multisensorsystem kann eine einfache und kostengünstige Kamera zum Einsatz kommen, deren Bilder durch Kombination mit anderen Sensordaten eine zuverlässige Klassifizierung der Insekten ermöglichen. Das ist unser Ziel. Wir arbeiten mit Blitz, denn Insekten krabbeln schnell, zu schnell für die Belichtungszeiten der Raspberry-Pi Kamera. Außerdem beleuchten wir diffus, um Schatten zu vermeiden.
Manche Insekten fliegen nachts, andere tagsüber. Einen Maikäfer erwarten wir nicht im September. Die Helligkeit, das Lichtspektrum, Wind, Regen, Pollenflug, Luftdruck und die Temperatur beeinflussen das Verhalten und das Vorkommen von bestimmten Spezies. Deshalb nehmen wir diese und andere lokale Wetter- und Umweltdaten mit auf und erhalten für jedes Insekt einen komplexen Datensatz.
Wir haben bereits einen ersten Prototyp gebaut und ein Terrarium bzw. Aerarium für Laborexperimente in der Wintersaison. In diesem Jahr (2021) untersuchen wir, wie sich die Insekten in unserem Sensorsystem verhalten und wo und wie die Kameras mit der Beleuchtung platziert sein müssen, um charakteristische Bilder zu erhalten. Außerdem überprüfen wir, ob die Flugstrecke ausreichend lang ist, diskutieren über die Qualität der Daten und arbeiten daran den Rolling-Shutter-Effekt zu umgehen. Wir haben viele Themen und Fragestellungen und freuen uns über neue Ideen und eure Mitwirkung bei der weiteren Entwicklung.
Mit den Erfahrungen aus 2021 bauen wir dann für 2022 ein standardisiertes Insekten-Monitoringsystem. Dies soll kostengünstig und nachbaubar sein. Zu diesem Zeitpunkt benötigen wir auch eine standardisierte Datenübertragung aus dem Feld z.B. mit LoRaWAN. Wichtig ist, dass die Daten immer wieder unter den gleichen Bedingungen aufgenommen werden, um der KI ein optimales Training zu ermöglichen.
Wir freuen uns auf gemeinsames Forschen.
Interessierte können uns über info@kinsecta.org erreichen.