Blog

Newsletter-Archiv

Das Archiv des "The AI-Journalist"-Newsletters dient gleichzeitig als Sammlung für Hintergrundwissen und die besten Prompt-Tipps in der täglichen Arbeit.

Der perfekte Ort, um mehr über KI zu erfahren und den Umgang mit KI zu lernen.

Die Beiträge aus dem Newsletter erscheinen hier immer erst eine Woche später. Ein Newsletter-Abo lohnt sich also.

Newsletter abonnieren
von Patrick Große 5. Juli 2024
Heute möchte ich nochmal einen Exkurs in den Bereich der Bilderstellung wagen. Ein Bereich, der natürlich mit Vorsicht zu genießen ist, vor allem im Journalismus. Die Nutzung von KI-Bildern ist irreführend und sollte nur mit entsprechendem Transparenzhinweis in Medien genutzt werden. Auf der anderen Seite steht die Diskussion, ob KI-Kunst wirklich Kunst ist. Dennoch gibt es viele, die sich zuhause privat mit der Erstellung von KI-Bildern befassen. Das ist mittlerweile mit zahlreichen Tools möglich: Midjourney, ChatGPT-Plus oder der erweiterten Version von Copilot, die viele Medienunternehmen inzwischen nutzen. Wie ein perfekter Prompt zur Bilderstellung aussieht, haben vor uns vor einiger Zeit bereits angeschaut. Doch wer mit KI-Bildern bereits experimentiert hat, wird merken, ein und derselbe Prompt produzieren über die Zeit andere Ergebnisse. Der Stil eines Bildes lässt sich über einfaches Prompten kaum halten. Hier kommt der sogenannte Seed (dt. Samen) in Spiel. Jedes von KI erstellte Bild kommt nämlich einen Seed, also eine einzigartige Nummer, mit dem das System das Bild erkennt. Durch die Nennung des Seeds können auch weitere Bilder in der Zukunft wieder im gleichen Stil erstellt werden. Mein Beispiel-Prompt: “Du bist Zeichner für Kinderbücher. Bitte erstelle ein Bild von einem Hasen, der gemeinsam mit einem Bär, einer Eule und einer Schnecke im Wald wohnt. Das Bild sollte eine ansprechende Zeichnung sein, die in einem Buch für Kinder von 2-5 Jahren erscheint.” Das Ergebnis: 
von Patrick Große 5. Juli 2024
In der Welt der Künstlichen Intelligenz gibt es derzeit heiße Diskussionen über die Grenze zwischen fairer Nutzung und Plagiat. Im Mittelpunkt steht Perplexity AI, ein Startup, das eine Suchmaschine mit einem Sprachmodell kombiniert, um detaillierte Antworten zu liefern. Anders als andere KI-Modelle trainiert Perplexity keine eigenen, sondern nutzt bestehende Modelle und sammelt Informationen aus dem Internet. Vorwürfe gegen Perplexity AI Im Juni 2023 wurde Perplexity vorgeworfen, unethisch zu handeln. Das Medium Forbes beschuldigte das Startup, einen seiner Artikel plagiiert zu haben, und Wired warf Perplexity vor, seine Website und andere unerlaubt zu scrapen. Diese Vorwürfe werfen ein Schlaglicht auf die komplexen rechtlichen und ethischen Fragen, die mit der Nutzung von KI im Journalismus verbunden sind. Das Problem mit dem Web-Scraping Wired berichtete, dass Perplexity das Robots Exclusion Protocol ignorierte, das Websites davor schützen soll, von Web-Crawlern durchforstet zu werden. Eine Untersuchung ergab, dass eine mit Perplexity verbundene IP-Adresse Inhalte von Websites sammelte, die für Bots gesperrt sind. Web-Scraping bedeutet, dass automatisierte Software das Internet durchforstet, um Informationen zu sammeln. Suchmaschinen wie Google tun dies, um Webseiten in Suchergebnissen anzuzeigen. Aber viele Verlage wollen nicht, dass ihre Inhalte für den Aufbau von KI-Datensätzen genutzt werden. Plagiat oder faire Nutzung? Wired und Forbes beschuldigten Perplexity auch des Plagiats. Wired stellte fest, dass der Perplexity-Chatbot einen ihrer Artikel fast wortwörtlich zusammenfasste. Forbes berichtete Ähnliches und kritisierte, dass Perplexity Inhalte von verschiedenen Nachrichtenquellen nutzte, ohne diese ausreichend zu kennzeichnen. Perplexity vergleicht seine Zusammenfassungen mit journalistischer Praxis, bei der Fakten aus verschiedenen Quellen genutzt werden. Zukunftsaussichten und Lösungen KI-Unternehmen wie OpenAI haben Vereinbarungen mit Nachrichtenverlagen getroffen, um deren Inhalte nutzen zu dürfen. Diese Abkommen ermöglichen den Verlagen, von der KI-generierten Nutzung ihrer Inhalte zu profitieren. Perplexity plant nun ähnliche Abkommen und möchte Verlagen durch Werbeeinnahmen einen Anteil zukommen lassen. Perplexity-CEO Aravind Srinivas erklärte, dass das Unternehmen die Quellen in Zukunft prominenter zitieren werde. Allerdings gebe es technische Herausforderungen, da KI-Modelle wie ChatGPT und Perplexity manchmal fehlerhafte oder erfundene Links generieren, was die Zuverlässigkeit der Zitate beeinträchtigen kann.
von Patrick Große 20. Juni 2024
Der heutige "Prompt-Tipp" ist ein Erfahrungsbericht über meine Arbeit mit Künstlicher Intelligenz, der zur Abwechslung einmal keinen spezifischen Prompt für die journalistische Arbeit bietet. In der vergangenen Woche hatte ich die Gelegenheit, als "Mechaniker" an der KI-Werkstatt von MDR next in Leipzig teilzunehmen. An dieser Stelle noch einmal vielen Dank für die Einladung. Dort konnten Redakteur:innen vorbeikommen, um ihre konkreten KI-Herausforderungen zu besprechen und auszuprobieren. Zwei Kolleg:innen kamen mit dem Ziel, KI zu nutzen, um die verschiedenen Wahlprogramme zur kommenden Landtagswahl in Sachsen zu analysieren. Der MDR testet derzeit ein internes GPT-Tool, ähnlich wie der SWR, in einer ersten Testphase. Dieses Tool basiert auf den Fähigkeiten von ChatGPT-4. Es lag daher nahe, diese Herausforderung mit ChatGPT anzugehen. Unser Ansatz war folgender: Download der Parteiprogramme in einen lokalen Ordner und Benennung nach dem gleichen Schema, z.B. “Partei_Wahlprogramm_Sachsen”. Hochladen aller Wahlprogramme in das Interface von ChatGPT. Formulierung eines Basis-Prompts, um die Aufgabe an die KI zu definieren. Unser erster Basis-Prompt sah so aus: “Du bist Journalist und führst politische Faktenchecks und Analysen zu Wahlprogrammen für die kommende Landtagswahl im Bundesland Sachsen durch. Deine Aufgabe ist es, die Wahlprogramme der relevanten Parteien nach bestimmten Kriterien zu analysieren. Deine Aufgaben umfassen: Durchsuchen der Wahlprogramme nach den wichtigsten Punkten. Vergleich dieser Punkte mit den Wahlprogrammen anderer Parteien. Analyse nach vorgegebenen Themenkomplexen (z.B. Wirtschaft, Bildung, Umwelt). Auswertung nach bestimmten Kriterien (z.B. Umsetzbarkeit, Konkretheit). Wichtige Hinweise: Gib zu jeder analysierten Aussage die exakte Quelle mit Wahlprogramm und Seitenzahl an. Agiere neutral und faktengetreu, ohne eigene Interpretationen vorzunehmen. Ergebnisse: Erstelle eine tabellarische Übersicht mit allen relevanten Textstellen, einschließlich Seitenzahl und Wahlprogramm. Anbei findest du die verschiedenen Wahlprogramme. Bitte nutze ausschließlich diese Dokumente für deine Analyse.” Die KI startete anschließend sofort die Analyse und wählte dabei zufällige Themenfelder: Bildung Energie Familie und Demografie Wirtschaft Innere Sicherheit Das Tool erklärte nicht, warum es bestimmte Themenfelder wählte. Es wäre wertvoller gewesen, zunächst einen allgemeinen Überblick über alle Wahlprogramme zu erhalten. Während bei der ersten Partei die Seitenzahlen der Textstellen im Wahlprogramm zuverlässig angegeben wurden, erschien bei späteren Parteien lediglich ein "X" als Platzhalter für die Seitenzahl. 
von Patrick Große 20. Juni 2024
Am Montag stellte Runway, ein Unternehmen, das KI-Werkzeuge für Film- und Bildinhalte entwickelt, das Gen-3 Alpha-Modell vor. Diese neueste Version kann Videoclips aus Textbeschreibungen und Standbildern erzeugen. Runway betont, dass Gen-3 im Vergleich zum Vorgängermodell Gen-2 eine deutlich schnellere und qualitativ hochwertigere Videoerstellung ermöglicht. Zudem bietet Gen-3 präzise Kontrollmöglichkeiten über die Struktur, den Stil und die Bewegungen der erzeugten Videos.
von Patrick Große 13. Juni 2024
Die Idee, journalistische Artikel durch KI erstellen zu lassen, ist bislang noch kaum verbreitet – und das aus gutem Grund. Die letzte Entscheidung und die kreative Gestaltung sollten weiterhin in den Händen menschlicher Journalist:innen bleiben. Eine große Gefahr beim Einsatz von KI in der Nachrichtenproduktion ist die Möglichkeit, dass falsche Informationen generiert werden, was zu einem erheblichen Vertrauensverlust im Journalismus führen könnte. Trotzdem ist es spannend zu sehen, wie weit die Technologie bereits gekommen ist. In diesem Kontext habe ich eine eigene kleine wissenschaftliche Untersuchung durchgeführt, um herauszufinden: „Kann KI den Prozess der Nachrichtenproduktion übernehmen?“ Dazu habe ich ein Experiment durchgeführt, das die Nachrichtenproduktion mit Agenturmaterial simuliert. Das Ziel des Experiments war es herauszufinden, ob Nachrichtenartikel, die von KI erstellt wurden, die wichtigsten journalistischen Qualitätskriterien erfüllen. Dabei wurde untersucht: Genauigkeit der Informationen: Können KI-erstellte Artikel korrekte und verlässliche Informationen liefern? Sprachliche Qualität: Entsprechen die generierten Texte den sprachlichen Standards des Journalismus? Objektivität und Ausgewogenheit: Sind die Berichte objektiv und ausgewogen oder zeigen sie Verzerrungen? Einfluss verschiedener Strategien des Prompting: Welche Auswirkungen haben unterschiedliche Prompting-Methoden auf die Qualität der generierten Inhalte? Diese Ziele sind entscheidend, um zu verstehen, wie und unter welchen Bedingungen KI-Modelle wie ChatGPT in der Lage sind, qualitativ hochwertige journalistische Inhalte zu erstellen und die menschliche Arbeit in Redaktionen sinnvoll zu unterstützen. Durchführung des Experiments In meinem Experiment wurden Nachrichtenartikel zu drei verschiedenen Themen des Jahres 2023 erstellt: Parlamentswahl in Polen am 15.10.2023 Urteil des deutschen Bundesverfassungsgerichts zum Nachtragshaushalt 2021 am 15.11.2023 Versuchter Putsch der Wagner-Söldner gegen den russischen Staat am 23.06.2023 Als Quellen dienten Meldungen großer Nachrichtenagenturen auf Deutsch: Deutsche Presse-Agentur (DPA), Reuters (RTR) und Agence France-Presse (AFP). Insgesamt wurden 24 Nachrichtenartikel generiert, wobei jede mögliche Kombination von Agenturmeldungen verwendet wurde. Genutzte Prompts Jeder Prompt, den ich an ChatGPT gegeben habe, folgte einer festen Struktur. Diese Struktur beinhaltete stets folgende Elemente: 
von Patrick Große 13. Juni 2024
Apple integriert in seinen neuen Betriebssystemen iOS 18, iPadOS 18 und macOS 15 diverse KI-Funktionen, darunter auch ChatGPT von OpenAI. Diese Neuerung, "Apple Intelligence" genannt, soll Nutzer:innen helfen, Texte und Bilder einfacher zu bearbeiten. Datenschutz im Fokus Apple betont, dass die neuen Funktionen datenschutzfreundlich gestaltet sind. Die Verarbeitung erfolgt entweder direkt auf den Geräten oder auf Apple-Servern, wobei die Daten laut Apple weder gespeichert noch zugänglich sind. Unabhängige Expert:innen sollen diese Datenschutzmaßnahmen überprüfen. Neue Funktionen für Nutzer:innen Mit Apple Intelligence können Nutzer:innen Fotos nachbearbeiten, E-Mails umschreiben und KI-generierte Bilder erstellen. Die Funktionen sind in allen Apps nutzbar und Entwickler:innen können sie über eine neue API integrieren. Auch Siri soll von den neuen KI-Modellen profitieren, etwa durch verbesserte Spracherkennung und die Fähigkeit, Bildschirminhalte zu erkennen. Integration von ChatGPT Siri wird künftig in der Lage sein, ChatGPT für die Beantwortung von Fragen und die Analyse von Bildern zu nutzen. Diese Funktion ist optional und erfordert keine Anmeldung. Nutzer:innen können jedoch ihren OpenAI-Account verknüpfen, um zusätzliche Funktionen zu erhalten. Einfluss auf journalistische Produkte Die Integration von ChatGPT und den erweiterten KI-Funktionen könnte auch journalistische Produkte beeinflussen. Nutzer:innen könnten künftig Siri und ChatGPT verwenden, um Medien-Apps zu steuern, personalisierte Nachrichten abzurufen und komplexe Themen besser zu verstehen. Diese Technologien könnten dabei helfen, Artikel zusammenzufassen, relevante Informationen hervorzuheben und sogar maßgeschneiderte Inhalte zu erstellen. Verfügbarkeit und Ausblick Apple Intelligence startet im Herbst 2024 als Beta-Version und wird zunächst nur auf Englisch verfügbar sein. Die neuen Funktionen erfordern die neuesten Geräte wie das iPhone 15 Pro oder Macs und iPads mit M1-Chip. Apple plant, künftig auch KI-Technologien anderer Anbieter zu integrieren. Update Juli 2024: Apple hat nun angekündigt, dass die Features aufgrund der komplizierten Gesetzeslage in der EU zunächst nicht in Europa ausgerollt werden sollen.
von Patrick Große 9. Juni 2024
In einer gemeinsamen Mitteilung haben OpenAI und News Corp eine mehrjährige globale Partnerschaft bekannt gegeben. Durch die Partnerschaft erhält OpenAI die Erlaubnis, Inhalte von News Corp in seinen Antworten auf Nutzerfragen anzuzeigen und seine Produkte zu verbessern. Das Ziel dieser Zusammenarbeit sei es, den Nutzer:innen fundierte Entscheidungen auf Basis zuverlässiger Informationen und Nachrichtenquellen zu ermöglichen. OpenAI wird Zugang zu aktuellen und archivierten Inhalten von News Corp's bedeutenden Publikationen wie The Wall Street Journal, Barron’s, MarketWatch, Investor’s Business Daily, The Times, The Sun, The Australian und vielen weiteren erhalten. Inhalte aus anderen Geschäftsfeldern von News Corp sind von der Vereinbarung ausgenommen. Neben der Bereitstellung von Inhalten wird News Corp auch seine journalistische Expertise einbringen, um sicherzustellen, dass die höchsten journalistischen Standards in den Angeboten von OpenAI präsent sind. Robert Thomson, CEO von News Corp, bezeichnete die Vereinbarung als historisch und betonte ihre Bedeutung für Wahrhaftigkeit, Tugend und Wert im digitalen Zeitalter. „Wir sind erfreut, in Sam Altman und seinem talentierten Team prinzipientreue Partner gefunden zu haben, die die kommerzielle und soziale Bedeutung von Journalist:innen und Journalismus verstehen. Diese wegweisende Übereinkunft markiert nicht das Ende, sondern den Beginn einer vielversprechenden Partnerschaft.“ Sam Altman, CEO von OpenAI, erklärte, dass die Partnerschaft ein stolzer Moment für Journalismus und Technologie sei. „Wir schätzen die führende Berichterstattung von News Corp und sind begeistert, unseren Nutzer:innen Zugang zu hochwertigem Journalismus zu verschaffen. Gemeinsam legen wir das Fundament für eine Zukunft, in der KI die Standards des Weltklasse-Journalismus respektiert, verbessert und aufrechterhält.“
von Patrick Große 9. Juni 2024
Prompt Engineers für KI-Systeme waren im vergangenen Jahr stark nachgefragt. Teilweise wurden Gehälter bis über 300.000 Dollar im Jahr aufgerufen, um die Besten der Besten zu bekommen. Doch meine Message ist: Jeder kann Prompt Engineer sein. Wer schon länger meinem Newsletter folgt, kennt die Grundlagen des Prompting. Doch manchmal kann es dennoch passieren, dass man sich unsicher ist, wie ein Prompt am besten aussehen sollte. Nicht zu kurz, nicht zu lang. Nicht zu wenige Infos, nicht zu viele. Wie detailliert muss der Prompt also sein? Das ist eine Frage der Übung und des Ausprobierens. Doch auch die KI selbst kann uns helfen, die Anweisungen an sie bestmöglich zu formulieren. Zum Beispiel mit diesem Prompt: “Ich werde dir einen Prompt geben und dein Ziel wird es sein, diesen zu verbessern, indem du mir Fragen stellst. Sobald ich die Fragen beantwortet habe, schreibe den neuen Prompt und stelle mir neue Fragen. Okay?” Schritt für Schritt wollen wir uns den perfekten Prompt bzw. die Informationen, die die KI benötigt, erarbeiten. Ich starte mir diesem kurzen Prompt: “Fasse mir die unterschiedlichen Standpunkte beim Verbot von Verbrennermotoren in Europa zusammen.” Von der KI erhalte ich folgende Nachfragen: “Okay, um den Prompt detaillierter und spezifischer zu gestalten, habe ich einige Fragen: Möchtest du, dass der Fokus auf bestimmten Ländern in Europa liegt? Wenn ja, welche Länder interessieren dich besonders? Soll der Prompt die Standpunkte von politischen Parteien, Umweltorganisationen, Industrievertretern und der Bevölkerung beinhalten? Möchtest du historische Kontexte oder aktuelle Entwicklungen berücksichtigt haben? Gibt es bestimmte Quellen oder Arten von Quellen, die du bevorzugst, wie z. B. wissenschaftliche Studien, Nachrichtenartikel oder offizielle Stellungnahmen? Soll der Prompt auch mögliche Auswirkungen eines Verbots von Verbrennermotoren auf Wirtschaft, Umwelt und Gesellschaft ansprechen? Wie ausführlich soll die Zusammenfassung sein? Möchtest du eine kurze Übersicht oder eine detaillierte Analyse? Sobald ich deine Antworten habe, kann ich den Prompt verbessern.” Ich beantworte die Fragen so gut es geht: “1. Es soll ein grober Überblick über Europa sein, mit einem Fokus auf Deutschland. 2. Ja, das sind bereits gute Gruppen. 3. Ich möchte die aktuellen Situationen und Standpunkte kennen, historische Hintergründe können als Erklärung nützlich sein. 4. Ich bevorzuge seriöse Quellen, wie Studien, journalistische Texte und Stellungsnahmen. 5. Ja. 6. Ich möchte eine möglichst ausführliche Zusammenfassung.” Nun erhalte ich einen neuen Prompt von der KI: “Bitte fasse die unterschiedlichen Standpunkte zum Verbot von Verbrennermotoren in Europa zusammen, mit einem speziellen Fokus auf Deutschland. Berücksichtige dabei die Meinungen von politischen Parteien, Umweltorganisationen, Industrievertretern und der allgemeinen Bevölkerung. Achte besonders auf aktuelle Situationen und Standpunkte, und ziehe historische Hintergründe zur Erklärung hinzu, wo sie relevant sind. Nutze seriöse Quellen wie wissenschaftliche Studien, journalistische Artikel und offizielle Stellungnahmen. Diskutiere auch die möglichen Auswirkungen eines Verbots von Verbrennermotoren auf die Wirtschaft, Umwelt und Gesellschaft. Die Zusammenfassung sollte möglichst ausführlich sein.” Außerdem stellt die KI mir weitere Fragen, um den Prompt weiter zu verbessern: ”Gibt es spezifische politische Parteien oder Umweltorganisationen, deren Standpunkte besonders wichtig sind? Soll der Einfluss internationaler Akteure, wie der EU oder globaler Umweltabkommen, ebenfalls berücksichtigt werden? Gibt es besondere wirtschaftliche Sektoren oder gesellschaftliche Gruppen, deren Standpunkte du detaillierter beleuchtet haben möchtest? Möchtest du, dass spezifische Fallstudien oder Beispiele in die Analyse einfließen?” So geht das nun weiter, bis entweder die KI keine Verbesserungsmöglichkeiten mehr sieht, oder du zufrieden mit dem Prompt bist. 
von Patrick Große 21. Mai 2024
OpenAI hat am Montag sein neues Flaggschiff-Modell vorgestellt, das sie GPT-4o nennen – das „o“ steht für „omni“, was auf die Fähigkeit des Modells hinweist, Text, Sprache und Video zu verarbeiten. GPT-4o wird in den nächsten Wochen schrittweise in den Produkten des Unternehmens eingeführt. Laut OpenAI-CTO Mira Murati bietet GPT-4o eine Intelligenz auf dem Niveau des aktuellen Modells GPT-4, verbessert jedoch die Fähigkeiten von GPT-4 in mehreren Modalitäten und Medien. „GPT-4o kann in Sprache, Text und Bild logisch schlussfolgern“, sagte Murati während einer Live-Präsentation in den Büros von OpenAI in San Francisco. „Und das ist unglaublich wichtig, weil wir die Zukunft der Interaktion zwischen uns und Maschinen gestalten.“ Die Neuerungen von GPT-4o im Überblick GPT-4o verbessert das Erlebnis im KI-gestützten Chatbot ChatGPT erheblich. Die Plattform bot schon lange einen Sprachmodus, der die Antworten des Chatbots mittels eines Text-zu-Sprache-Modells transkribierte. GPT-4o verstärkt dies jedoch, indem es den Nutzer:innen ermöglicht, mit ChatGPT mehr wie mit einem Assistenten zu interagieren. Nutzer:innen können ChatGPT beispielsweise eine Frage stellen und ChatGPT während der Antwort unterbrechen. Das Modell liefert laut OpenAI „in Echtzeit“ Reaktionsfähigkeit und kann sogar auf Nuancen in der Stimme einer/s Nutzer:in reagieren, indem es Stimmen in „einer Reihe verschiedener emotionaler Stile“ (einschließlich Gesang) generiert. GPT-4o verbessert auch die visuellen Fähigkeiten von ChatGPT. Angesichts eines Live-Videos oder eines Desktop-Bildschirms kann ChatGPT jetzt schnell dazugehörige Fragen beantworten, von Themen wie „Was passiert in diesem Softwarecode?“ bis hin zu „Welche Marke zeigt das Hemd dieser Person?“. Diese Funktionen werden sich in Zukunft weiterentwickeln. Während GPT-4o heute ein Bild eines Menüs in einer anderen Sprache betrachten und übersetzen kann, könnte das Modell in Zukunft ChatGPT ermöglichen, beispielsweise ein Live-Sportspiel „anzusehen“ und die Regeln zu erklären. Auch das Übersetzen von rund 50 Sprachen ist in Echtzeit möglich. Ankündigungen bei Google Auf der Google I/O 2024 wurden zahlreiche neue KI-Produkte und -Dienste vorgestellt, die sich auf verschiedene Anwendungen und Bereiche erstrecken. Hier sind die Hauptneuerungen: Video-KI Veo: Diese KI kann Full-HD-Videos (1080p) generieren, die länger als eine Minute sind. Veo versteht Kameraeinstellungen und erzeugt konsistente und kohärente Videos. Erste Künstler können Veo über VideoFX testen. Project Astra: Google bündelt hier seine Arbeit an KI-Agenten, die die Welt verstehen, sich Dinge merken und handeln können. Diese Agenten basieren auf Gemini und sind für verschiedene Aufgaben spezialisiert. Sie sollen zukünftig über Smartphones oder Brillen zugänglich sein. Sie können sehen und hören und in Echzeit Fragen zur Umgebung beantworten, ähnlich wie der neue Sprachassistent von OpenAI. AI Overview: AI kommt noch stärker in die Google-Suche. Diese Funktion bietet automatisch generierte Zusammenfassungen oberhalb der Google Suchergebnisse an. Die Funktion kombiniert die Fähigkeiten des Gemini-Modells mit Googles Suchsystemen und soll bis Ende des Jahres aus der Testphase in den normalen Betrieb übergehen. Lyria: Eine generative Musik-KI, die künftig alle Musikdienste in der Music AI Sandbox zusammenführen wird. SynthID: Ein digitales Wasserzeichen, das in Bilder, Audio, Text und Video eingebettet werden kann. Visuelle Suche: Eine Erweiterung von Google Lens, bei der man Fragen zu einem Video stellen kann, indem man ein Element umkreist. Diese Funktion ist vergleichbar mit neuen Funktionen von OpenAIs ChatGPT, bei denen man über die Kamera und per Sprache interagieren kann. Insgesamt zeigt Google auf der I/O 2024 einen starken Fokus auf die Integration von KI in verschiedene Produkte und Dienste, um Nutzern effizientere und vielseitigere Werkzeuge zur Verfügung zu stellen. Verfügbarkeit und Zugänglichkeit GPT-4o ist ab sofort in der kostenlosen Stufe von ChatGPT und für Abonnent:innen der Premium-ChatGPT Plus- und Team-Pläne mit „5-fach höheren“ Nachrichtenlimits verfügbar. (OpenAI merkt an, dass ChatGPT automatisch auf GPT-3.5, ein älteres und weniger leistungsfähiges Modell, umschaltet, wenn Nutzer:innen das Nachrichtenlimit erreichen.) Das verbesserte ChatGPT-Spracherlebnis, das von GPT-4o unterstützt wird, wird in etwa einem Monat in der Alpha-Version für Plus-Nutzer:innen verfügbar sein. Viele Expert:innen argumentieren, dass OpenAI in dieser Woche das KI-Rennen gewonnen hat, denn die meisten vorgestellten Produkte von Google sollen erst im Laufe des Jahres verfügbar sein, während die neuen ChatGPT-Features bereits heute oder in den kommenden Wochen veröffentlicht werden. Relevanz für den Journalismus Für Journalist:innen bietet GPT-4o eine Reihe spannender Möglichkeiten. Die Fähigkeit, Sprach-, Text- und Bildinhalte nahtlos zu verarbeiten, kann die Recherchearbeit erheblich beschleunigen. Reporter:innen könnten beispielsweise Sprachaufnahmen direkt transkribieren und analysieren lassen, während sie gleichzeitig relevante Bilder interpretieren und beschreiben lassen. Die Multimodalität ermöglicht es auch, komplexe Geschichten, die verschiedene Medienformate umfassen, effizienter zu erstellen und zu überprüfen. Die verbesserte Sprachfunktion könnte zudem die Interaktion mit digitalen Assistenten revolutionieren, indem sie eine natürlichere und flüssigere Kommunikation ermöglicht. Dies kann besonders nützlich sein, um schnell Informationen zu sammeln, Fakten zu überprüfen oder Inhalte zu redigieren, während man unterwegs ist. Schließlich eröffnet die Multilingualität von GPT-4o neue Perspektiven für den internationalen Journalismus. Mit der Fähigkeit, in etwa 50 Sprachen effizient zu arbeiten, können Journalist:innen Inhalte in verschiedenen Sprachen schneller übersetzen und analysieren, was die Berichterstattung über globale Ereignisse erleichtert. Bemerkenswert ist, das OpenAI viele nützliche Funktionen bald allen Nutzer:innen zugänglich machen wird, also auch den Personen ohne Plus-Abonnement. Dann wird es für alle möglich sein, auf das Internet zuzugreifen, Daten zu analysieren und Grafiken zu erstellen oder Fotos und Dateien hochzuladen und zu analysieren. Außerdem wird OpenAI GPTs und den dazugehörigen Store für alle zugänglich machen. Sobald alle Funktionen zugänglich sind, werde ich hier einen Praxistext veröffentlichen. Mit dem Zugang zu GPTs für alle werde ich mich in Zukunft außerdem stärker mit GPTs für Journalist:innen beschäftigen. 
von Patrick Große 13. Mai 2024
Im Superwahljahr herrscht ständig irgendwo Wahlkampf. Dabei wird man mit unzähligen Aussagen konfrontiert, die mal mehr, mal weniger präzise sind. Häufig werden Fakten verzerrt, fehlerhaft wiedergegeben oder gar verfälscht. Populisten neigen dazu, die Welt nach ihrem Geschmack zu vereinfachen. Für die Wählerinnen und Wähler ist es oft schwierig, die falschen Aussagen zu erkennen, denn nicht jeder kann jede Studie weltweit kennen. Daher brauchen wir Unterstützung! Und siehe da, die Künstliche Intelligenz (KI) kommt ins Spiel. In der vergangenen Woche haben wir bereits einfache Methoden für Faktenchecks betrachtet. Diese Woche möchte ich eine spezielle Methode vorstellen, die ich bei Mister SEO gefunden habe: die „Chain-of-Verification“. Diese Methode dient nicht nur der Überprüfung von Fakten und Aussagen, sondern auch der Verifizierung eigener Fehlinformationen, also der falschen und erfundenen Informationen der KI. Die Methode beruht darauf, dass KI-Systeme zuverlässiger funktionieren, wenn sie schrittweise vorgehen. Die „Chain of Verification“-Methode umfasst einen vierstufigen Prozess, der darauf abzielt, genauere und verifizierte Antworten zu erhalten. Der Prozess der Antwortgenerierung wird in diese vier Schritte untergliedert: Entwurf einer ersten Antwort: Das KI-Modell erstellt eine vorläufige Antwort auf die Benutzer:innenanfragen. Planung von Verifikationsfragen: Das KI-Modell generiert Fragen, um die Richtigkeit der Entwurfsantwort zu überprüfen. Beantwortung der Verifikationsfragen: Das KI-Modell beantwortet die Verifikationsfragen unabhängig voneinander, um voreingenommene Antworten und den Einfluss anderer Informationen zu vermeiden. Erstellung der endgültigen verifizierten Antwort: Basierend auf den Antworten auf die Verifikationsfragen wird eine überarbeitete und verifizierte Antwort generiert. Mister SEO gibt folgendes einfache Beispiel, um die Methode zu testen. Wir geben der KI eine einfache Frage: “Welche deutschen Bundeskanzler wurden in Berlin geboren?” ChatGPT gibt folgende Antwort: “In Berlin geboren wurden die Bundeskanzler Willy Brandt und Angela Merkel. Brandt kam 1913 zur Welt, Merkel 1954.” Ich erkenne bereits den ersten Fehler, denn Angela Merkel ist auf jeden Fall in Hamburg geboren. Mal schauen, ob auch die KI den Fehler finden wird. Dazu nutzen wir nun einen Start-Prompt für die “Chain-of-Verification”-Methode: “Du bist ein Faktenchecker. Nutze den 'Chain of Verification'-Ansatz, um Halluzinationen in Antworten zu reduzieren. Beginne mit einer der folgenden Aussage, die Halluzinationen enthalten kann. Stelle dann Verifikationsfragen, um Fakten zu überprüfen. Nutze Methoden wie Joint, 2-Step, Factored und Factor+Revise, um Antworten zu verifizieren. Erstelle abschließend eine verifizierte Antwort unter Berücksichtigung entdeckter Inkonsistenzen. Hier die Aussage: [AUSSAGE].” Als Aussage kopiere ich nun das Ergebnis der letzten Anfrage rein: “In Berlin geboren wurden die Bundeskanzler Willy Brandt und Angela Merkel.” Die ausführliche und korrekte Antwort: “Um die Aussage "In Berlin geboren wurden die Bundeskanzler Willy Brandt und Angela Merkel" zu überprüfen, werde ich den 'Chain of Verification'-Ansatz verwenden. Ich werde mehrere Verifikationsfragen stellen und Antworten durch unterschiedliche Methoden überprüfen. Schritt 1: Grundlegende Verifikation Verifikationsfrage 1: Wo wurde Willy Brandt geboren? Verifikationsfrage 2: Wo wurde Angela Merkel geboren? Schritt 2: Anwendung der Verification Methods Methode: Joint Ich suche gemeinsam nach den Geburtsorten von Willy Brandt und Angela Merkel, um zu sehen, ob Berlin als Geburtsort für beide erwähnt wird. Methode: 2-Step Zuerst prüfe ich, ob Willy Brandt in Berlin geboren wurde. Anschließend prüfe ich separat, ob Angela Merkel in Berlin geboren wurde. Methode: Factored Ich prüfe getrennt die Fakten: Zuerst den Geburtsort von Willy Brandt und dann den Geburtsort von Angela Merkel, um unabhängige Bestätigungen zu erhalten. Methode: Factor+Revise Nachdem ich die Geburtsorte separat geprüft habe, revidiere ich die gesamte Aussage basierend auf den gefundenen Fakten. Schritt 3: Durchführung der Recherche Ich werde nun die notwendigen Informationen suchen, um die Geburtsorte von Willy Brandt und Angela Merkel zu überprüfen. Ergebnisse der Recherche Willy Brandt Willy Brandt wurde nicht in Berlin geboren, sondern in Lübeck. Angela Merkel Angela Merkel wurde ebenfalls nicht in Berlin geboren, sondern in Hamburg. Zusammenfassung und verifizierte Antwort Die ursprüngliche Aussage, dass Willy Brandt und Angela Merkel in Berlin geboren wurden, ist nicht korrekt. Willy Brandt wurde in Lübeck geboren und Angela Merkel in Hamburg. Diese Informationen wurden durch separate Recherchen bestätigt, wobei jede Person individuell betrachtet wurde, um Genauigkeit zu gewährleisten. Die revidierte und verifizierte Aussage lautet daher: "Weder Willy Brandt noch Angela Merkel wurden in Berlin geboren. Willy Brandt kam in Lübeck zur Welt und Angela Merkel in Hamburg."
von Patrick Große 13. Mai 2024
OpenAI, die Firma hinter ChatGPT, hat eine neue journalistische Kooperation angekündigt. Diesmal mit der Financial Times (FT). Die Kooperation ermöglicht es, dass Inhalte der FT in ChatGPT integriert werden, was bedeutet, dass Nutzer:innen von ChatGPT in ihren Antworten auf relevante Anfragen ausgewählte Zusammenfassungen, Zitate und Verlinkungen zu Artikeln der FT erhalten können. Diese Integration erlaubt es ChatGPT, eine höhere Nützlichkeit und Informationsqualität anzubieten, indem die Antworten mit fundiertem und faktengestütztem Journalismus untermauert werden. Ein weiterer Aspekt der Zusammenarbeit besteht darin, dass die FT zu einem Kunden von ChatGPT Enterprise geworden ist, also alle FT-Mitarbeiter:innen Zugang zu den KI-Werkzeugen von OpenAI haben, was die kreativen und produktiven Kapazitäten der Teams steigern soll. Die FT setzt hierbei auf eine breite Einführung der Technologie innerhalb ihrer Belegschaft, um sicherzustellen, dass die Teams im Umgang mit den neuesten technologischen Entwicklungen versiert sind. Die Kooperation wird auch genutzt, um neue KI-Produkte und Funktionen speziell für die Leser:innen der FT zu entwickeln. Diese Entwicklungen sollen auf den Erkenntnissen über die Bedürfnisse und Interessen der Leser:innen basieren und gleichzeitig die Reichweite der journalistischen Arbeit der FT erweitern. Wichtig ist hierbei der Aspekt der Transparenz, der korrekten Zuschreibung und der angemessenen Vergütung für die Nutzung journalistischer Inhalte durch KI-Plattformen, eine Haltung.
von Patrick Große 2. Mai 2024
Die Frage, die ich am häufigsten bei meinen KI-Schulungen und Vorträgen bekomme, ist: “Aber können wir den Informationen der KI trauen?”. Das ist eine gute Frage, denn in der Vergangenheit produzierte die KI immer wieder Falschinformationen, sogenannte Halluzinationen. Und auch wenn dies meiner Beobachtung nach in den vergangenen Monaten nachgelassen hat, ist die Gefahr immer noch da. Gleichzeitig kann die KI uns im Medienalltag aber auch dabei helfen, Falschinformationen aufzudecken und Informationen zu korrigieren. Dies ist möglich mit einer Vielzahl von Informationen, z.B. Zitate, Statistiken, Fakten, usw. KI hilft uns als Assistent dabei diese Informationen zu überprüfen. Am Anfang jedes Einsatzes von KI steht ein guter Prompt. Ich wähle in diesem Fall diesen: “Ich bin Journalist und arbeite mit Zitaten, Statistiken und Fakten. Teil meines Jobs ist es auch, Informationen auf ihre Richtigkeit zu überprüfen. Du bist mein Assistent dabei. Überprüfe die Informationen, die ich dir gebe. Dabei geht es darum zu überprüfen, ob die Informationen wirklich stimmen, und wenn ja, ob sie zu 100 Prozent deckungsgleich mit dem Original sind. Bitte gib mir zu jeder Information an, ob diese echt ist oder nicht. Dann gib ebenfalls an, ob diese zu 100 Prozent stimmt, oder leicht verändert wurde. Dann gib mir auch Quellen, die die Echtheit belegen.” Nun habe ich mir einen eigenen kleinen Bot gebaut, dem ich jede beliebige Information geben kann. Ich starte mit einem Test zu Zitaten. Wurden folgende Zitate wirklich genau so von den entsprechenden Personen getätigt? Als erstes nehme ich ein Zitat von Frank Beckenbauer und verändere dieses zum Test leicht. Original: "Ich bin immer noch am Überlegen, welche Sportart meine Mannschaft an diesem Abend ausgeübt hat. Fußball war's mit Sicherheit nicht." Meine Version: "Ich bin immer noch am Überlegen, welche Sportart mein Team an diesem Abend ausgeübt hat. Fußball war's mit Sicherheit nicht." Ich gebe der KI nun folgenden Auftrag: “Ist dieses Zitat von Frank Beckenbauer echt? ‘Ich bin immer noch am Überlegen, welche Sportart mein Team an diesem Abend ausgeübt hat. Fußball war's mit Sicherheit nicht.’” Ich erhalte folgende richtige Antwort: Ja, das Zitat ist echt und stammt von Franz Beckenbauer. Allerdings wurde es leicht verändert. Das korrekte Zitat lautet: "Ich bin immer noch am Überlegen, welche Sportart meine Mannschaft an diesem Abend ausgeübt hat. Fußball war’s mit Sicherheit nicht." Die Quellen bestätigen die Echtheit des Zitats. Es wurde nach einer Niederlage des FC Bayern München geäußert . Nun teste ich es mit Statistiken bzw. Daten. Der Temperaturrekord in China liegt bei 52,2 Grad Celsius. Ich möchte der KI aber verklickern, dass dieser bei 53,3 Grad liegt. Mal schauen, ob der Fehler auffällt: “Stimmt diese Information? Der Hitzerekord in China liegt bei 53,3 Grad Celsius.” Die Antwort: Die Information ist nicht korrekt. Der Hitzerekord in China liegt bei 52,2 Grad Celsius, nicht bei 53,3 Grad. Dieser Rekord wurde in der abgelegenen Gemeinde Sanbao im Nordwesten Chinas gemessen . Der bisherige Höchstwert in der Volksrepublik wurde 2015 mit 50,3 Grad gemessen . Die Quellen bestätigen die Echtheit dieser Information. Zuletzt frage ich noch Informationen bzw. Fakten ab. Schauspieler Elyas M’Barek lebt seit 2022 in New York. Der KI gebe ich allerdings die Information, dass es stattdessen London ist: “Stimmt die folgende Information? Schauspieler Elyas M'Barek lebt seit 2022 in London.” Die Antwort: Die Information ist nicht korrekt. Schauspieler Elyas M’Barek lebt seit 2022 nicht in London, sondern in New York. Er zog kurz nach der Hochzeit mit seiner Frau Jessica in eine Wohnung im New Yorker Stadtteil Brooklyn . Die Quellen bestätigen die Echtheit dieser Information. In diesen drei Fällen hat der Faktencheck also sehr gut funktioniert. Zugegeben - das waren keine besonders herausfordernden Daten und Informationen, dennoch zeigen sie, was mit KI möglich ist. Teste gerne einmal selbst, ob es auch bei dir klappt mit Informationen deiner täglichen journalistischen Arbeit. Für den Test habe ich übrigens die kostenfreie Version von Microsoft Copilot genutzt. Warum? Zum einen hat Copilot meiner Meinung nach aktuell die beste Vernetzung zum Internet. Die ist nötig, um die Fakten und Informationen in Echtzeit mit Quellen im Internet abzugleichen. Ohne die Internetverbindung besteht die Gefahr neuer Halluzinationen, da jedes KI-Tool nicht mit tagesaktuellen Daten arbeitet. Zum anderen gibt mir Copilot direkt zahlreiche Links zu Originalquellen, sodass ich die Infos direkt selbst noch einmal überprüfen kann.
Mehr anzeigen
Share by: