Zweihundertsiebenundachtzig Seiten aus der Hand erlesener Professorinnen und Professoren zu sichten, das erfordert viel Zeit und viel menschliche Intelligenz. Weswegen die Versuchung einfach zu groß war, künstliche Intelligenz (KI) für diesen Artikel um Hilfe zu bitten. Gedacht, getan. Chat-GPT, der aktuelle KI-Shooting-Star, macht es in weniger als 60 Sekunden möglich: „Chat-GPT, bitte fasse die Stellungnahme des Deutschen Ethikrates zum Thema künstliche Intelligenz für einen Arzt zusammen“.
Das Ergebnis zeigt, dass bereits jetzt nennenswert Bildung und Mühe notwendig ist, um mit der künstlichen Intelligenz Schritt zu halten. Denn ChatGPT antwortet wie folgt: „Der Deutsche Ethikrat hat in seiner Stellungnahme zur künstlichen Intelligenz festgestellt, dass diese eine enorme Bedeutung für den Bereich der Medizin hat und das Potenzial bietet, die Patientenversorgung zu verbessern. Allerdings weist der Ethikrat auch auf die ethischen Herausforderungen hin, die mit dem Einsatz von künstlicher Intelligenz im Gesundheitswesen einhergehen, wie zum Beispiel Datenschutz, Transparenz, Verantwortung und Fairness. Der Ethikrat fordert daher eine verantwortungsvolle und ethisch reflektierte Entwicklung und Anwendung von künstlicher Intelligenz im Gesundheitswesen, die sich an den Werten der Medizin und des Grundgesetzes orientiert. Zudem betont der Ethikrat, dass künstliche Intelligenz niemals die menschliche Entscheidungsfindung und Verantwortung im medizinischen Bereich ersetzen kann und soll.“
Verantwortlichkeit klar geregelt?
Die Güte der Kurzzusammenfassung hilft, auch die übergeordnete Maxime der Empfehlung des Ethikrates zu verstehen, die da lautet „Künstliche Intelligenz muss menschliche Entfaltung, Autorschaft und Handlungsmöglichkeiten erweitern, nicht ersetzen.“. Anders formuliert: Hilft mir KI, diesen Text zu schreiben, und ist für sie klar, wer ihn zu verantworten hat, so ist das Verhältnis von künstlicher zu menschlicher Intelligenz adäquat sortiert. Ist nicht nachzuvollziehen, wie Texte und Entscheidungen zustande gekommen sind, was in vielen sozialen Medien schon gang und gäbe ist, oder fehlt die menschliche Gesamtübersicht und somit Verantwortbarkeit, so entzieht sich KI einer im Sinne des Ethikrates vernünftigen Nutzung.
Für den Anwendungsbereich Medizin formuliert der Ethikrat neun konkrete Empfehlungen. Die wichtigste vorweg: Der Deutsche Ethikrat hält es für geboten, dass allen Bürgerinnen und Bürgern die KI-Anwendungen zur Verfügung gestellt werden, die den herkömmlichen Behandlungsmethoden nachweislich überlegen sind. Anders formuliert, kognitive Besitzstandswahrung wird als unmoralisch eingestuft.
Um einen sinnvollen Mehrwert erbringen zu können, bedarf es einer guten Entwicklung, weswegen sich mehrere Empfehlungen hierauf beziehen. So wird z.B. empfohlen, medizinische Fachgesellschaften verpflichtend in die Entwicklung einzubinden, um sicherzustellen, dass die herangezogenen Trainings- und Validierungsdatensätze für hiesige Patientengruppen repräsentativ und valide sind. Ein Beispiel: Eine in China entwickelte Software zu Detektion von Melanomen kann nicht unangepasst in Europa verwendet werden.
„Deskilling“ muss verhindert werden
Ferner ist dem Ethikrat wichtig sicherzustellen, dass die Nutzer zu einer vernünftigen Nutzung befähigt werden: So wird nicht nur eine Integration der Thematik in die Aus- und Weiterbildung gefordert, sondern großer Wert darauf gelegt, mit gezielten Maßnahmen einem sogenannten „deskilling“ entgegenzuwirken. Diese Sorge ist nachvollziehbar: Wer glaubt nicht, dass Chat-GPT von dem einen oder anderen Schüler genutzt werden wird, um einen schnellen Schulaufsatz anzufertigen? Ebenso liegt nahe, dass die Kompetenz der Internistinnen und Internisten abnehmen wird, Röntgen-Thoraxuntersuchungen zu analysieren, wenn es im Alltag stets und binnen Sekunden von einer KI-Applikation übernommen wird. Hier gezielt mit „geeigneten, spezifischen Fortbildungsmaßnahmen“ entgegenzuwirken, wie vom Ethikrat gefordert, klingt vernünftig, ist aber vermutlich nur bedingt realistisch.
Agilität ist gefragt
Wie könnte, legt man die Empfehlungen zugrunde, unsere ärztliche Rolle in Zukunft aussehen? Wir sollen diejenigen sein, die die Inhalte der KI-Anwendungen definieren und verstehen, sollen die Ergebnisse und Vorschläge kritisch überprüfen und interpretieren und zu guter Letzt menschlich kommunizieren und umsetzen.
Elon Musk liegt richtig: „ChatGPT ist beängstigend gut. Wir sind nicht weit entfernt von einer gefährlich starken KI.“ Wollen wir als Ärzteschaft und Gesellschaft tatsächlich die Vision des Deutschen Ethikrates leben, so darf es uns nicht passieren, dass wir Jahre für die Reform unserer Approbations- und Weiterbildungsordnung benötigen. Ohne mehr Agilität wird uns die Welt überholen.
Ein Teil dieses Textes wurde vom Chatbot ChatGPT erstellt.
Ein Beitrag von Dr. Kevin Schulte, 2. Vizepräsident des BDI, und ChatGPT, erschienen in der BDI aktuell 05/2023