Digital Phenotyping: Revolution oder Überwachung?

Words by Arzu Gül
Photography: Boudewijn Huysmans via Unsplash
Schwarz-weiß Foto einer Frau, die auf dem Bett liegt, während sie ein Smartphone benutzt.

Es könnte einen Meilenstein in der modernen Medizin darstellen – oder aber die Entstehung eines unethischen Wissenschaftszweiges. Die Rede ist von Digital Phenotyping, einem neuen Fachgebiet, in dem Ärzte und Tech-Unternehmen zusammenarbeiten, um mithilfe unserer digitalen Fingerabdrücke mehr über uns und unsere Gesundheit herauszufinden.

 

Heutzutage ist das Smartphone in vielen Teilen der Welt allgegenwärtig. Wir nutzen es, um zu kommunizieren, zu arbeiten, zur Unterhaltung, zum Shoppen, als Navigationssystem und für vieles mehr. Bei all diesen Tätigkeiten hinterlassen wir eine Art digitalen Fingerabdruck. Unser Telefon speichert beispielswiese Informationen über unsere GPS-Standorte, den Klang unserer Stimme, welche Begriffe wir beim Kommunizieren verwenden, die Länge unserer Telefonate, unsere Lesegeschwindigkeit und unendliche weitere Daten.

Diese Muster werden digitale Phänotypen genannt. Normalerweise beschreiben Phänotypen äußere Merkmale, wie beispielsweise Augenfarbe, Körpergröße oder das Geschlecht. Im Zuge der Digitalisierung wird der Begriff aber nun auch um Merkmale unserer Mediennutzung erweitert. Denn diese können weitreichende Aufschlüsse über uns als Mensch und sogar unsere genetischen Erbanlagen geben.

Mit der wachsenden Flut an Informationen nutzen auch immer mehr WissenschaftlerInnen diese Informationen, um Rückschlüsse über unsere physische und psychische Gesundheit zu ziehen. In den meisten Fällen werden dazu Software-Programme genutzt, die mithilfe einer Künstlichen Intelligenz die Verhaltensmuster der Menschen erlernen und daraus Konsequenzen ableiten können.

Einsatz zur Früherkennung von Krankheiten

Eine Erkennung von Autismus ist bereits jetzt mithilfe Digital Phenotyping möglich

2016 untersuchten beispielsweise WissenschaftlerInnen der Universität St. Gallen 126 ProbandInnen mithilfe einer Smartphone-App, die sensorische Informationen sammelt. So versuchten sie herauszufinden, ob die ProbandInnen möglicherweise an Depressionen erkrankt sein könnten. Hierfür wurden unter anderem GPS-Informationen zur Standort-Ermittlung, die Gesamtnutzungsdauer des Telefons, die Anzahl der eingehenden und ausgehenden Anrufe und Textnachrichten sowie die Gesamtzahl der Kontakte als Maßstab für soziale Aktivitäten untersucht. Das Ergebnis: Die Kombination der digitalen Phänotypen führte zu einer Vorhersage von Depressionen mit einer Genauigkeit von 60 Prozent. Auch wenn diese Resultate aktuell noch ärztlicher Bestätigung bedürfen, könnten Menschen zukünftig von einer frühzeitigen Erkennung der Krankheit mittels einer App profitieren.

Im Juli 2019 veröffentlichte ein Team der Keele University in England eine Verhaltensstudie über Kinder mit Autismus. Das Innovative daran war, dass sie hierfür keine ProbandInnen befragten, sondern ausschließlich öffentlich zugängliche YouTube-Videos nutzten, die mithilfe einer Künstlichen Intelligenz auf bestimmte typische und atypische Körperbewegungen ausgewertet wurden. Die Ergebnisse zeigten, dass die digitale Auswertung des Bildmaterials durchaus als gangbare Methode zur Klassifizierung der Krankheit bewertet werden konnte.

Wie steht es um die Privatsphäre?

Doch mit bahnbrechenden Möglichkeiten kommt auch eine große Verantwortung. Sucht man aktuell nach den Ergebnissen der Keele-Studie, erhält man die Information, dass die wissenschaftliche Arbeit von den AutorInnen aufgrund von Unzulänglichkeiten im Ethik-Genehmigungsprotokoll zurückgezogen wurde. Denn: Weder Kinder noch Eltern hatten je ihre Einwilligung zur Nutzung der Videos für die Studie gegeben.

Damit Digital Phenotyping den Übergang von der Wissenschaft in klinische Praxen vollziehen kann, müssen vorab Fragen der Privatsphäre und Sicherheit geklärt werden. Dabei geht es vor allem um die Klärung, wem die digitalen Daten eigentlich gehören und zu welchem Zweck sie verwendet werden. Denn hinter Wissenschaft und Medizin reihen sich mit Sicherheit schon etliche Marketing-ManagerInnen, welche die Daten gerne für kommerzielle Zwecke und Werbung nutzen würden. 

Ein verblüffendes Beispiel hierfür lieferte Target, eine der größten Einzelhandelsketten in den USA. Target scannt und sammelt Informationen mithilfe von Kundennummern und Kreditkarten, die beim Bezahlen verwendet werden. Vor einiger Zeit hatte das Statistik-Team einige dieser Daten ausgewertet und erkannt, dass schwangere Frauen in den ersten drei Monaten zunehmend parfumfreie Babylotion kaufen. Auf Basis dieser Daten schickte Target anschließend Coupons und Reklame für allerlei Baby-Artikel per Post an Frauen, die potenziell schwanger sein könnten. Als eine junge High-School Schülerin ebenfalls Baby-Post nach Hause erhielt, beschwerte sich ihr Vater bei dem Einzelhandelsriesen und warf Target vor, einen Kinderwunsch bei Teenagern wecken zu wollen. Zur Überraschung ihres Vaters gestand seine Tochter später allerdings, tatsächlich schwanger zu sein. Somit hatte ihr digitaler Phänotyp offenbart, was ihren Eltern bisher verborgen geblieben war.

Welche Nachteile könnten entstehen?

Ohne Zweifel: In unseren digitalen Fingerabdrücken steckt eine riesige Chance. Aber was ist, wenn diese Daten zu unserem Nachteil genutzt werden? Wenn die Nutzung unserer digitalen Daten uns finanzielle oder soziale Nachteile bringt, da wir möglicherweise bestimmte Vorgaben und Raster nicht erfüllen oder unsere Verhaltensweisen mit anderen verglichen werden und »schlechter« abschneiden? Schon heute prognostizieren Unternehmen im Finanzsektor die Bonität von Einzelpersonen aufgrund ihrer digitalen Phänotypen (unter anderem ZestFinance). Könnten diese Methoden dazu führen, dass Menschen immer mehr in Schubladen gesteckt werden und nicht die gleichen Chancen erhalten wie ihre Mitmenschen? 

Auch in der Strafverfolgung könnten Nachteile entstehen. Bereits jetzt werden digitale Suchanfragen, Käufe, Telefonate und Webseiten-Besuche nach möglichen kriminellen Energien ausgewertet. In Zukunft könnten auch viel subtilere digitale Phänotypen Hinweise auf Personen liefern, bei denen ein gewisses Risiko für die Begehung einer Straftat besteht. Was passiert, wenn man fälschlicherweise als potenzieller Kriminaltäter klassifiziert wird? Werden Menschen zukünftig schon für Dinge belangt, bevor diese überhaupt geschehen sind?

 

Die Sorge um manipulative Beeinflussung

Eine weitere Sorge von Kritikern ist die der manipulativen Beeinflussung. Wir erinnern uns an den Facebook-Skandal um Cambridge Analytica: Das 2014 gegründete Datenanalyse-Unternehmen sammelte über eine digitale Schnittstelle über 87 Millionen personenbezogene Daten von Facebook-Profilen und verkaufte diese weiter an konservative Politiker im US-Wahlkampf. Damit gelangten die WahlkämpferInnen an hochsensible psychologische Profile von Facebook-Nutzern, die Facebook selbst über Algorithmen erlernt und erstellt hatte. In der Politik konnten diese Daten genutzt werden, um passgenaue Wahlkampfwerbung auszuspielen und Gesprächsprofile zu erstellen, mit denen die Personen angesprochen und in ihrer Wahl beeinflusst wurden. Cambridge Analytica wird vorgeworfen, unter anderem für den Aufstieg Donald Trumps als US-Präsident verantwortlich zu sein. 

Kurz gesagt, Digital Phenotyping benötigt noch einen festen ethischen Rahmen, der die Interessen des Einzelnen sicherstellt. Die Zustimmung der Personen muss gegeben sein, ebenso wie eine Leitlinie für die Verwendung der vertraulichen Daten. Sofern dieser Rahmen existiert, offenbaren sich vielfältige Möglichkeiten, um zukünftig Krankheiten, Umweltkatastrophen, gesellschaftliche Entwicklungen oder kriminelle Aktivitäten vorauszusagen und frühzeitig Problemlösungen zu erarbeiten. Wie auch immer sich die wissenschaftliche Disziplin weiterentwickeln wird – es bleibt in jedem Fall sehr spannend.

Dazu Passend

Künstliche Intelligenz: eine Bedrohung für uns alle?

Der Mensch lebt für den Fortschritt, und ständig entwickeln wir uns weiter. Wir sind Entdecker und Erfinder, die das Leben maßgeblich und kontinuierlich verändern. So auch wenn es um das vieldiskutierte Thema der Künstlichen Intelligenz geht. Doch ob uns KI voranbringt oder eher ausbremst, spaltet immer wieder die Meinungen. 

Share:

Arzu Guel

Redakteurin

Nach einem MBA in Medienmanagement und Stationen in der Produktentwicklung, Objektleitung und Vermarktung von Magazinen, hat Arzu Guel zurück zu ihrer eigentlichen Leidenschaft, dem Schreiben und Kreieren von Content, gefunden. Seit September 2019 schreibt sie nicht nur für Monda Magazin, sondern entwickelt auch Formate für unseren Instagram-Kanal. Sie brennt für die Themen Digitalisierung, Future Trends und für Menschen mit echten Geschichten.

Kommentieren