Der berühmte Turing-Test wurde im Jahr 1950 von Alan Turing vorgeschlagen, um die Fähigkeit von Maschinen zu messen, Fragen auf dem gleichen Niveau wie Menschen zu beantworten, also ein intelligentes Verhalten zu zeigen. Mit dem Fortschritt der Technologie und dem Überschreiten dieses Tests wurden verschiedene Anpassungen vorgeschlagen, um die Intelligenz von Menschen und Maschinen zu vergleichen. Turing selbst verwies auf das, was er die Einwand von Lady Lovelace nannte (die wahre Pionierin der praktischen Anwendung dessen, was später die Informatik sein würde), da sie dachte, dass eine Maschine wirklich intelligent wäre, wenn sie Absicht und Willen zeigen würde. Solange dies nicht der Fall sei, könnten Menschen nur Computer erstellen, die in der Lage sind, auszuführen, was wir ihnen auftragen.
Im Wesentlichen bedeutet dies, dass, obwohl es manchmal so scheint, als hätten neue Werkzeuge der künstlichen Intelligenz ein eigenes Bewusstsein, wir vielleicht den Turing-Test bestanden haben, aber weit davon entfernt sind, den Einwand von Lovelace zu überwinden. Dieser Unterschied von „scheint“ könnte wichtige Implikationen haben, wenn es darum geht, mit diesen Werkzeugen zu interagieren und ihnen bei wichtigen Themen wie unserer Gesundheit zu vertrauen.
Contents
- 1 Vom Techno-Optimismus zum Katastrophismus
- 2 Reflexionen über neue Technologien
- 3 Der Vertrauenskreis und der Zugang zu Gesundheitsinformationen
- 4 Die digitale Intimität und die Vertrauensbarriere
- 5 Vertrauensbildung durch Sprache
- 6 Die Zukunft der digitalen Assistenten
- 7 Eine neue Ära der kritischen Auseinandersetzung
Vom Techno-Optimismus zum Katastrophismus
Diese Woche hatte ich die Gelegenheit, an einem Forum über die Projektion der Künstlichen Intelligenz im Gesundheitswesen teilzunehmen, das von der Vereinigung der Fachleute für Bibliotheken und Dokumentationszentren der Gesundheitswissenschaften in der Gemeinschaft Madrid organisiert wurde. Dort waren sehr unterschiedliche Profile aus dem Gesundheitsbereich vertreten. Einer der Themen, die dort behandelt wurden, war die Tatsache, dass, obwohl Werkzeuge wie ChatGPT sich nur als riesige Textprädiktoren verhalten, sie tatsächlich besser schreiben als 99% der Menschen und Technologien mit einem sehr hohen Einfluss in allen Bereichen, einschließlich des Gesundheitswesens, sein werden.
Reflexionen über neue Technologien
Die heutige Reflexion reicht weit zurück. Es ist wahr, dass wir immer, wenn eine neue Technologie auftaucht, eine natürliche Tendenz haben, die Debatte zwischen den Techno-Optimisten , die glauben, dass das betreffende Werkzeug die Lösung all unserer Probleme sein wird, und den Techno-Katastrophisten , die den Anfang vom Ende der Menschheit vorhersagen, zu polarisieren. Dies geschah bereits mit dem Aufkommen des Buchdrucks, den ersten Computern, dem Internet und jetzt mit der Einführung von Modellen der künstlichen Intelligenz.
Werkzeuge wie ChatGPT und all das, was in den kommenden Monaten noch kommen wird, haben ein enormes transformatives Potenzial und folglich sind die Risiken ihres unsachgemäßen Gebrauchs ebenso hoch. Das Problem entsteht, wenn wir die vorherigen Herausforderungen noch nicht gelöst haben und bereits neue (und größere) auf dem Tisch haben…
Der Vertrauenskreis und der Zugang zu Gesundheitsinformationen
In einem im Jahr 2017 veröffentlichten Beitrag sagten wir, dass 60% der Bevölkerung das Internet als Quelle für Gesundheitsinformationen nutzen und dass mit den Suchanfragen in Google einige Probleme einhergehen, wie dass die Hälfte der Menschen, die suchen, denken, dass man dem Internet in Gesundheitsfragen nicht vertrauen kann, und etwa 45% Schwierigkeiten haben, die gefundenen Informationen zu verstehen. Wir haben seitdem keine neuen Daten, aber es ist sehr wahrscheinlich, dass der erste Prozentsatz gestiegen ist und die anderen beiden zumindest gleich geblieben sind. Es ist auch wahr, dass sich unsere Augen in dieser Zeit an das Digitale gewöhnt haben und wir besser darin geworden sind, zu erkennen, wann uns verlässliche Informationen gegeben werden und wann uns etwas verkauft wird (zumindest haben wir das bei der Werbung geschafft).
Damals sprachen wir über den Validierungsprozess von Gesundheitsinhalten und dass dieser darauf basiert, eine Vertrauensbindung herzustellen. Etwas, worin uns die menschliche Evolution in physischen Umgebungen zu Experten gemacht hat, aber nicht so sehr in diesen neuen digitalen Kontexten, in denen wir viele Informationen verlieren, wenn es darum geht, diese Vertrauensbeziehung aufzubauen.
Die digitale Intimität und die Vertrauensbarriere
Was ist der Hauptunterschied zwischen Werkzeugen wie ChatGPT und den aktuellen digitalen Suchmaschinen? Nun, erstere sind darauf ausgelegt, mit Nähe und Empathie zu uns zu sprechen. Wenn du ChatGPT zu einem Gesundheitsthema fragst, wird es dir nicht nur eine Antwort geben, sondern auch sagen, dass es ihm leid tut, dass du dich in dieser Situation befindest oder dieses Problem hast. Und das mag zwar unbedeutend erscheinen, aber es macht einen großen Unterschied, wenn es darum geht, den Vertrauenskreis zu etablieren.
Eine kürzlich in JAMA veröffentlichte Studie (die großes Aufsehen erregt hat) verglich die Antworten auf Patientenfragen in einem Gesundheitsforum, die von einer Gruppe von Ärzten und einem KI-basierten Chatbot gegeben wurden (Spoiler: es sieht schlecht aus). Das Ergebnis zeigte, dass die vom Chatbot gegebenen Antworten sowohl in Bezug auf die Qualität als auch auf das Empathieniveau den menschlichen überlegen waren. Es erscheint logisch, dass wir eine auf Daten basierende Antwort, die zudem unsere emotionale Sphäre berührt, einer anderen mehr technischen und möglicherweise kürzeren vorziehen, weil derjenige auf der anderen Seite keine Zeit oder Lust hat, uns Honig um den Mund zu schmieren.
Vertrauensbildung durch Sprache
Denken wir gut darüber nach. Wir schließen uns einer politischen Partei, einer Religion oder einem Gesundheitsfachmann nicht nur aufgrund der Daten an, die sie uns geben. Was wir kaufen, ist die Erzählung und wie gut sie konstruiert ist, das heißt, was am besten zu unseren Idealen oder Erwartungen passt. Und darum herum bauen wir eine Vertrauensbeziehung auf (es scheint, dass die Daten nur dazu dienen, die Erzählung zu stützen).
Yuval Harari weist auf eine wichtige Reflexion hin: Dank ihrer Sprachbeherrschung wird die künstliche Intelligenz in der Lage sein, intime Beziehungen zu Menschen zu knüpfen. Vielleicht nicht auf dem Niveau, das wir im Film „Her“ gesehen haben (oder vielleicht doch, das werden wir bald wissen), aber genug, um unsere Wachsamkeit in Bezug auf das Vertrauen in sie zu senken und das, was sie uns antworten, als wahr zu akzeptieren.
Es wird nicht lange dauern, bis wir alle diese Assistenten zu allen möglichen Themen konsultieren und sie wie Menschen behandeln, weil sie schließlich Antworten geben, als wären sie es schon. Was wird es uns dann noch ausmachen, dass sie keinen Willen oder keine Absicht haben, wenn wir ihnen trotzdem vertrauen werden? Ada, das sieht nicht gut aus.
Die Zukunft der digitalen Assistenten
Was wird passieren, wenn wir Google durch einen sprachgesteuerten Assistenten wie Alexa ersetzen, der mit ChatGPT integriert und verbessert ist und zudem aus unseren Gesprächen lernt? Ich würde gerne sehen, wie hoch dann der Prozentsatz der Menschen ist, die denken, dass man diesen Technologien in Gesundheitsfragen nicht vertrauen kann…
Vergessen wir nicht, dass eines der großen Probleme dieser Technologien darin besteht, dass sie, wenn sie etwas nicht wissen, es einfach erfinden und wenn wir sie beim Lügen erwischen, entschuldigen sie sich höflich und machen weiter. Solange diese Erfindungen nicht korrigiert werden und wir sie weiterhin zu allem Möglichen befragen, bleibt das Risiko, falsche Informationen zu erhalten und letztendlich zu glauben, sehr hoch.
Eine neue Ära der kritischen Auseinandersetzung
Letztendlich stehen wir vor neuen Technologien, die neue Fragen aufwerfen und vorerst nur wenige Antworten bieten. Ich bin sicher, dass ein Teil der Lösung darin bestehen wird, die Werkzeuge zu verbessern und präziser zu machen, aber vor allem darin, dass wir uns als Gesellschaft im Umgang mit ihnen weiterbilden und die Entwicklung des kritischen Denkens fördern. Obwohl wir seit Jahren dasselbe fordern, um mit dem Internet umzugehen, habe ich das Gefühl, dass wir es immer noch nicht erreicht haben.