Erste Medien blocken den Zugriff von KI-Modellen auf ihre Inhalte und auch Journalisten werden aufgerufen wachsamer zu sein. Die US-amerikanische Nachrichtenagentur AP (Associated Press) hat jetzt seinen Journalisten Richtlinien für die Nutzung generativer KI zur Verfügung gestellt. In einem Blogpost erklärt AP dass der bewusste Einsatz von künstlicher Intelligenz den Werten der Presseagentur dienen und mit der Zeit die Arbeitsweise verbessern kann. Es gebe aber im Sinne der journalistischen Qualität wichtige Dinge zu beachten.
AP-Journalisten können mit ChatGPT experimentieren, werden aber gebeten, vorsichtig zu sein und das Tool nicht zur Erstellung veröffentlichungsfähiger Inhalte zu verwenden. Jedes Ergebnis einer generativen KI-Plattform „sollte als ungeprüftes Quellenmaterial behandelt werden“. Bei Bildern sind keine von einer KI generierte Motive zugelassen es sei denn sie sind Teil der Story. AP KI-generierte Fotos würden in den Bildunterschriften gekennzeichnet.
Redakteure dürfen keine vertraulichen Informationen in KI-Tools eingeben und sollten sicherstellen, dass andere Quellen, die sie verwenden, „frei von KI-generierten Inhalten“ sind. AP-Mitarbeiter werden gebeten, die versehentliche Verwendung von KI-Inhalten zu vermeiden, die zur Verbreitung von Fehlinformationen erstellt wurden, und sollten den Wahrheitsgehalt der von ihnen verwendeten Inhalte überprüfen.
Journalisten werden gebeten keine keine vertraulichen oder sensiblen Informationen in KI-Tools zu übertragen. Da generative KI es Menschen noch leichter macht Fakenews zu produzieren, in dem Wörter, Fotos, Videos oder Audiodateien verändert werden, sollten Journalisten noch mehr Vorsicht und Skepsis walten lassen. Dazu gehöre auch, dass sie versuchen, die Quelle des Originalinhalts zu ermitteln, eine umgekehrte Bildsuche durchführen, um die Herkunft eines Bildes zu überprüfen, und nach Berichten mit ähnlichem Inhalt von vertrauenswürdigen Medien suchen.