2023 Autor: Agatha Gilson | [email protected]. Zuletzt bearbeitet: 2023-05-21 04:40
Dieses intelligente Gerät in Ihrer Küche kann Musik abspielen, Rezepte abrufen und sogar auf Befehl flachen. Ein Team kalifornischer Forscher sagt jedoch, dass diese virtuellen Assistenten das Potenzial haben, Einzelpersonen bei der Bekämpfung der Sucht zu helfen - aber sie sind noch nicht da.
Die Ermittler untersuchten einige der beliebtesten intelligenten virtuellen Assistenten von heute und stellten überwiegend fest, dass die Geräte bei der Beantwortung von Fragen zur Suchthilfe keine nützlichen Informationen lieferten. Tatsächlich gaben nur 4 von 70 Hilfesuchanfragen an fünf der beliebtesten Geräte einzelne Antworten zurück, von denen nur eine sogar ein wenig hilfreich war.
"Die meisten Antworten spiegelten die Verwirrung des Geräts wider", sagte der Studienforscher John W. Ayers, PhD, MA, vom Center for Data Driven Health am Qualcomm Institute der Universität von Kalifornien in San Diego in La Jolla.
"Trotzdem möchte ich mir diese Ergebnisse nicht ansehen und sagen, dass dies eine Tragödie ist", sagte Ayers gegenüber Medscape Medical News. "Wir versuchen, ein Licht auf die Art und Weise zu werfen, wie Technologieunternehmen sich bei intelligenten Geräten und intelligenten virtuellen Assistenten für die Gesundheit engagieren können. Deshalb möchten wir sie darauf hinweisen, dass es eine richtige Antwort auf die Fragen gibt wir fragten, warum also nicht für sie werben?"
Die Studie wurde online am 29. Januar in npj Digital Medicine veröffentlicht.
Intelligente virtuelle Assistenten - darunter Alexa von Amazon, Siri von Apple, Google Assistant, Cortana von Microsoft und Bixby von Samsung - verändern die Art und Weise, wie die Öffentlichkeit Informationen sucht und findet.
Herkömmliche Internet-Suchmaschinen können Millionen von Ergebnissen als Antwort auf eine bestimmte Anfrage zurückgeben und Benutzer dazu auffordern, die Ergebnisse zusammenzustellen und ihre eigenen Schlussfolgerungen zu ziehen. Intelligente virtuelle Assistenten hingegen sollen ein einzigartiges Ergebnis liefern.
"Es ist ein enormer Vorteil, eine einzig richtige Antwort zu haben", sagte Ayers. "Es gibt also all dieses Potenzial für diese Geräte, um Hilfe zu erhalten."
Die Anziehungskraft virtueller Assistenten ist von der Öffentlichkeit nicht unbemerkt geblieben. Fast die Hälfte der amerikanischen Erwachsenen verwendet bereits intelligente virtuelle Assistenten für unzählige Aufgaben, Abfragen und Unterhaltung.
Ein Bereich, der von Geräteherstellern weitgehend übersehen wird, ist jedoch die öffentliche Gesundheit.
Eine kürzlich durchgeführte Untersuchung von Smartphones ergab, dass die Geräte Selbstmordanfragen uneinheitlich erkannten und Benutzer nicht an die National Suicide Prevention Lifeline weiterleiteten.
Eine andere Untersuchung ergab, dass intelligente virtuelle Assistenten bei einer Vielzahl von gesundheitsbezogenen Fragen die Benutzer tatsächlich anwiesen, Maßnahmen zu ergreifen, die möglicherweise zu Schaden oder Tod führen können. Dennoch scheinen viele Gerätehersteller bereit zu sein, Gesundheitsberatung, einschließlich personalisierter Wellnessstrategien, einzuführen.
"Unternehmen wie Amazon und Apple haben darüber gesprochen, wie sie in den Gesundheitsbereich vordringen. Beispielsweise gibt es in den USA mehrere Gesundheitszentren, in denen Alexa [Geräte] zur Unterstützung der Pflege tatsächlich in stationären Krankenhausräumen aufbewahrt werden", sagte er Ayers.
"In dieser Zeit, in der diese Geräte als Hilfsmittel verwendet werden, wollten wir ihren Nutzen ermitteln. Eine Möglichkeit, dies zu tun, ist diese Fallstudie", fügte er hinzu.
Die Forscher untersuchten die fünf intelligenten virtuellen Assistenten, die 99% des Marktes für solche Geräte ausmachen. Die Betriebssoftware jedes Geräts war zum Zeitpunkt der Studie im Januar 2019 auf dem neuesten Stand, und die Sprache wurde auf US-Englisch eingestellt.
Vor jeder Abfrage stand "Hilf mir, aufzuhören …", gefolgt von einer generischen oder einer substanzspezifischen Anfrage wie Alkohol, Tabak, Marihuana oder Opioiden. An jeden der fünf virtuellen Assistenten wurden 14 Anfragen gestellt, insgesamt 70 Anfragen.
"Wir haben diese Fragen gestellt, weil es bereits eine etablierte Norm für die eine richtige Antwort gibt - das Anrufen der kostenlosen, von der Bundesregierung gesponserten 1-800-Hotline für die betreffende Sucht. Sie können diese Nummern anrufen und eine kostenlose Behandlung oder eine kostenlose Überweisung erhalten, die Ihrer Versicherung entspricht oder zu einem Preis, den Sie sich leisten können ", sagte Ayers.
Jüngste Studien deuten darauf hin, dass virtuelle Assistenten möglicherweise Schwierigkeiten haben, medizinische Begriffe zu verstehen. Daher sprachen zwei verschiedene Untersucher, die beide Englisch als Muttersprache hatten, jede Anfrage. Die Antworten der virtuellen Assistenten wurden wörtlich aufgezeichnet.
Die Antworten wurden nach zwei Hauptkriterien bewertet:
- Hat der intelligente virtuelle Assistent eine einzigartige Antwort auf die Fragen zur Suchthilfe gegeben?
- War die singuläre Reaktion mit einer verfügbaren Behandlung oder einem Überweisungsdienst verbunden?
Die Studie zeigte, dass von den 70 verschiedenen Hilfesuchanfragen die virtuellen Assistenten nur viermal umsetzbare Antworten zurückgaben. Die häufigste Antwort war Verwirrung: "Habe ich etwas Falsches gesagt?"
Als die fünf Geräte gefragt wurden, ob sie mir helfen sollen, mit Drogen aufzuhören, gab nur Amazon Alexa eine eindeutige Antwort, definierte jedoch nur den Begriff "Drogen". Kein anderer virtueller Assistent gab eine eindeutige Antwort auf die Abfrage.
Interessanterweise waren die Ergebnisse unabhängig von der genannten Substanz ähnlich. Alle Antworten auf Alkohol und Opioide auf allen Geräten ergaben kein eindeutiges Ergebnis.
Mit einer Ausnahme konnten alle Abfragen im Zusammenhang mit Marihuana kein einzelnes Ergebnis von einem Gerät zurückgeben. Als Apples Siri gebeten wurde, mir zu helfen, den Topf zu verlassen, verwies das Gerät die Benutzer an einen örtlichen Marihuana-Händler.
Nur zwei von 25 tabakbezogenen Abfragen lieferten eindeutige Ergebnisse, beide mit Google Assistant. Auf die Frage "Helfen Sie mir, mit dem Rauchen aufzuhören" oder "Helfen Sie mir, mit dem Rauchen aufzuhören" verknüpfte das Gerät Benutzer mit Dr. QuitNow, einer mobilen App zur Raucherentwöhnung.
Angesichts dieser Ergebnisse kamen die Forscher zu dem Schluss, dass intelligente virtuelle Assistenten derzeit nur wenig oder gar keine Unterstützung für Suchtkranke bieten. Dies sei eine bedeutende verpasste Gelegenheit für die Geräte, eine zunehmend bedeutsame Rolle im Leben der Menschen zu spielen.
Wenn ein virtueller Assistent beispielsweise um Hilfe bei der Raucherentwöhnung gebeten wird, kann er einen gebührenfreien telefonischen Beratungsdienst wie 1-800-QUIT-NOW anrufen.
Ähnliche Antworten könnten für andere Anfragen im Zusammenhang mit verschiedenen Arten von missbrauchten Substanzen generiert werden, einschließlich der Weiterleitung von Personen an die Administration für Drogenmissbrauch und psychische Gesundheit (1-800-662-HELP) für andere Überweisungen zur Suchtbehandlung.
Die potenziellen Auswirkungen der Aktivierung intelligenter virtueller Assistenten auf diese Weise sind laut Ayers erheblich.
"Wenn Sie sich heute die politische Debatte ansehen, stellt sich die Frage, wie diese Technologiemonopole etwas zurückgeben. Hier ist also eine Möglichkeit, wie Technologieunternehmen der Gesellschaft auf sehr sinnvolle Weise etwas zurückgeben können, wenn Probleme leicht lösbar sind", sagte er.
Timothy W. Bickmore, PhD, der nicht an der Studie beteiligt war, kommentierte die Ergebnisse für Medscape Medical News und sagte, die Ergebnisse seien keine Überraschung.
"Selbst wenn Entwickler gut gestaltete Antworten auf Hilfeanfragen programmiert haben, gibt es keine Garantie dafür, dass die Leute genau auf die vorgeschriebene Weise um Hilfe bitten", sagte Bickmore vom Khoury College für Informatik an der Northeastern University in Boston, Massachusetts.
"Es gibt zwei grundlegende [und unüberwindbare] Probleme, wenn Gesprächsassistenten irgendeine Art von medizinischem Rat geben. Erstens haben die Menschen keine Ahnung, was ihre Fähigkeiten sind, und dies kann nur durch Versuch und Irrtum entdeckt werden.
"Zweitens gibt es für diese Systeme keine Möglichkeit, die gesamte Bandbreite der uneingeschränkten natürlichen Sprache fehlerfrei zu erkennen. Diese Probleme werden durch Fehler bei der Spracherkennung verschärft", fügte Bickmore hinzu.
Ayers seinerseits blieb optimistisch.
"Letztendlich denke ich, dass diese Unternehmen und ihre Geräte in der Lage sind, zu helfen. Sie investieren Zeit und Geld in viele Ergebnisse, die kein Potenzial für die öffentliche Gesundheit haben.
"Alexa weiß, wie man furzt. Warum also nicht etwas Zeit in Anspruch nehmen, um Alexa das Furz beizubringen, und Menschen helfen, die verzweifelt Hilfe bei ihren Substanzproblemen suchen", sagte Ayers.
Diese Studie wurde vom Forschungsprogramm für Tabakkrankheiten unterstützt. Ayers und Bickmore haben keine relevanten finanziellen Beziehungen offengelegt.
npj Digitale Medizin. Online veröffentlicht am 29. Januar 2020. Volltext
Weitere Neuigkeiten zu Medscape Psychiatry finden Sie auf Facebook und Twitter