Das von Amazon unterstützte Startup Anthropic, bekannt für den generativen AI-Chatbot Claude, setzt sich für eine neue Form verantwortungsbewusster KI ein: Eine Verfassung für seine großen Sprachmodelle, die auf öffentlichen Meinungen basiert.
Angesichts der Kontroversen um die Kontrolle und den Einfluss von KI hat Anthropic eine Umfrage unter 1.000 Amerikaner:innen durchgeführt. Die Teilnehmer:innen wurden gefragt, welche Werte und Sicherheitsmaßnahmen sie von leistungsstarken KI-Modellen erwarten. Einige der von der Öffentlichkeit gewünschten Prinzipien beinhalteten einen stärkeren Fokus auf Unparteilichkeit durch "objektive Informationen, die alle Seiten einer Situation widerspiegeln", und das Bestreben, KI-Antworten leicht verständlich zu gestalten. Im Gegensatz dazu war die von Anthropic erstellte Entwurfsverfassung prägnanter, wobei die öffentliche Version auch einige widersprüchliche Ideen nebeneinander zuließ.
Die Ergebnisse dieser Umfrage wurden in 75 Prinzipien zusammengefasst und mit den 58 Prinzipien verglichen, die Anthropic bereits für seinen Claude-Chatbot entwickelt hatte. Es gab nur eine 50%ige Übereinstimmung zwischen den Umfrageergebnissen und den bestehenden Prinzipien von Anthropic, was zeigt, wie unterschiedlich die Perspektiven innerhalb und außerhalb der Technologiebranche sein können.
Anthropic betont, dass die Einbindung der Nutzer:innen in den KI-Entwicklungsprozess ein Weg sein könnte, das Vertrauen in die Technologie zu erhöhen. Es geht darum, sicherzustellen, dass die Technologie die Werte und Bedenken der gesamten Gesellschaft widerspiegelt und nicht nur die einer spezifischen Gruppe oder Branche.