Digital

Gruseliges Microsoft-Patent will uns mit Toten chatten lassen – nun rudert der Konzern zurück

Tote wieder auferstehen zu lassen, zumindest digital, das ist das Ziel einer Technologie, deren Patent Microsoft vor einigen Wochen gewährt wurde. Sie soll es den Verbliebenen ermöglichen, auch über den Tod hinaus Kontakt mit Verstorbenen aufzunehmen. Oder es sich wenigstens so anfühlen zu lassen. Das erinnert nicht zufällig an eine Episode der Dystopie-Serie “Black Mirror”. Auch Microsoft scheint das Projekt etwas zu gruselig geworden zu sein.

Dabei ist die Idee zunächst durchaus faszinierend. Mittels Daten aus Social-Media-Posts, Fotos, Scans von Briefen und Ton- und Videoaufnahmen sollte eine künstliche Intelligenz darauf trainiert werden, die Persönlichkeit eines Menschen so gut zu kennen, dass sie diesen in einem Chat mit anderen Personen imitieren könnte. Wem die Idee bekannt vorkommt: Es ist die Handlung der “Black Mirror”-Folge “Wiedergänger” aus Staffel 2, in der eine Frau ihren toten Freund in einem Chatbot wiederbelebt.

Erstaunlich konkrete Pläne

Microsoft kopierte die Idee aber nicht plump, sondern beschreibt tatsächlich sehr konkret, wie eine solche Persönlichkeits-Kopie funktionieren könnte. “Als eine bestimmte Person zu sprechen, könnte auch beinhalten, die Konversationsmerkmale spezifischer Personen zu erkennen und/oder zu benutzen, etwa Stil, Diktion, Ton, Stimme, Absicht, Satz-/Dialoglänge und -Komplexität sowie Themen und Konsistenz”, erläutert das Patent. Auch Verhaltensmerkmale, Interessen sowie demografische Merkmale wie Alter, Beruf oder Geschlecht sollen beachtet werden. Dabei sei auch das Erstellen eines 3D-Modells aus Videomaterialien denkbar.

Doch offenbar scheint auch Microsoft bemerkt zu haben, dass Kopien von Personen – ob Lebende oder Tote – für die meisten eine eher gruselige Vorstellung sein dürften. “Wir haben keine Pläne, das umzusetzen“, stellte Microsofts Chef für den ethischen Einsatz Künstlicher Intelligenz, Tim O’Brien, bei Twitter klar. Er habe sich das Patent angesehen, führte er in einem weiteren Tweet aus. “Es wurde eingereicht, bevor wir mit der ethischen Bewertung von Künstlicher Intelligenz begonnen haben, wie sie heute in Kraft ist.” Er habe keine Pläne finden können, dass die Technologie benutzt hätte werden sollen. O’Brien ließ es sich nicht nehmen, auch seine eigene Bewertung anzufügen: “Ja, es ist wirklich verstörend.”

Gigantisches Missbrauchspotenzial

Tatsächlich wäre das Missbrauchs- und Fehlerpotenzial einer solchen Künstlichen Intelligenz – sollte sie denn wirklich funktionieren – immens. Nicht nur könnten Angehörige von dem vermeintlichen Kontakt mit Verstorbenen verstört werden, Fehler in der Umsetzung einer Persönlichkeit könnten erhebliche Auswirkungen auf das Bild der Verstorbenen haben. Da die Informationen immer unvollständig wären, wäre das Risiko falscher Darstellungen sehr hoch. Und dann ist da natürlich noch die Problematik, dass die Technologie natürlich nicht nur Tote, sondern auch lebende Menschen imitieren könnte. Ein gigantisches Minenfeld also.

Microsofts eigene Erfahrungen mit der Veröffentlichung von Chatbots dürfte ebenfalls keine allzu kleine Rolle gespielt haben. Als der Konzern im Jahr 2016 einen weiblichen Chatbot namens “Tay” veröffentlichte, dauerte es nur kürzeste Zeit, bis Scherzbolde sich des Bots im Internet annahmen und ihn dazu brachten, fröhlich Hitler zu loben und den Holocaust zu leugnen. Nach nicht mal 24 Stunden war Tay wieder offline. Es war eine Lehrstunde für die ganze Branche.

QUELLE

Related Articles

Back to top button