Die deutsche Verlagsgruppe Axel Springer, Eigentümer von Politico, Die Welt und Bild, bereitet sich auf größere Entlassungen vor und sagt, dass Journalisten jetzt durch künstliche Intelligenz ersetzt werden können, berichtet der Guardian.
Springer fordert die Medien auf, sich auf investigativen Journalismus und originelle Kommentare zu konzentrieren, während sich das Unternehmen auf den Stellenabbau bei den deutschen Zeitungen Die Welt und Bild vorbereitet. Der Vorstandsvorsitzende des deutschen Medienkonzerns sagte, dass Journalisten Gefahr laufen, durch Systeme der künstlichen Intelligenz wie ChatGPT ersetzt zu werden.
Die Ankündigung erfolgte zu einem Zeitpunkt, an dem der Verlag versucht, die Einnahmen der deutschen Zeitungen zu steigern und sie zu einem „volldigitalen Medienunternehmen“ zu machen. Er sagte, dass Stellenstreichungen kommen, da Automatisierung und künstliche Intelligenz zunehmend viele der Arbeitsplätze abbauen, die die Produktion von Journalismus unterstützen.
„Künstliche Intelligenz hat das Potenzial, unabhängigen Journalismus besser zu machen als je zuvor – oder ihn einfach zu ersetzen“, sagte Vorstandsvorsitzender Matthias Döpfner in einem internen Brief an die Mitarbeiter.
In seinen Worten versprechen künstliche Intelligenz-Tools wie das beliebte ChatGPT eine „Revolution“ der Informationen und werden bald besser darin sein, „Informationen zusammenzufassen“ als menschliche Journalisten.
„Diesen Wandel zu verstehen, ist essentiell für die Zukunftsfähigkeit eines Verlags“, sagte Dopfner. „Nur wer die besten Originalinhalte erstellt, wird überleben.“
Wie viele seiner Mitarbeiter entlassen werden, machte Springer nicht konkret, versprach aber, die Zahl der „Reporter, Autoren oder Fachredakteure“ nicht zu kürzen.
In seinem Brief an die Mitarbeiter sagte Döpfner, die Medien sollten sich auf investigativen Journalismus und originelle Kommentare konzentrieren, und die Aufdeckung der „wahren Motive“ hinter den Ereignissen bleibe eine Aufgabe für Journalisten.
Axel Springer ist nicht der erste Nachrichtenverlag, der sich mit dem Einsatz künstlicher Intelligenz bei der Content-Erstellung auseinandersetzt. In Januar, kündigte BuzzFeed Pläne an, künstliche Intelligenz einzusetzen, um seine Inhalte und Online-Quiz zu „verbessern“. Der Herausgeber der britischen Zeitungen Daily Mirror und Daily Express untersucht auch den Einsatz von KI und richtet eine Task Force ein, die „das Potenzial und die Grenzen von maschinellem Lernen wie ChatGPT“ untersucht, sagte der Vorstandsvorsitzende der Gruppe der Financial Times „.
Seit seiner Einführung im November letzten Jahres hat ChatGPT mehr als 100 Millionen Benutzer angehäuft und eine lang erwartete Abrechnung darüber beschleunigt, ob einige Arbeitsplätze durch künstliche Intelligenz abgebaut werden könnten. Das Programm kann aus einfachen Benutzeranfragen hochkomplexe Texte generieren, von Essays und Bewerbungen bis hin zu Gedichten und Kunstwerken. ChatGPT ist ein groß angelegtes Sprachmodell, das auf Dinge trainiert wurde, von Milliarden von Wörtern, die in das System hochgeladen wurden, bis hin zu alltäglichen Texten aus dem ganzen Internet. Es verwendet dann all dieses Material, um Wörter und Sätze in bestimmten Sequenzen vorherzusagen. Aber die Genauigkeit seiner Antworten wurde in Frage gestellt. Australische Forscher haben Beispiele für das System gefunden, das Links von Websites fabriziert und falsche Zitate liefert.
Auch der Einsatz künstlicher Intelligenz im Journalismus ist umstritten.
Die Tech-Website CNET verwendet Berichten zufolge ein Tool für künstliche Intelligenz, um Artikel zu generieren, die später vor der Veröffentlichung von menschlichen Redakteuren auf Genauigkeit gescannt werden. Im Januar räumte die Website ein, dass das Programm einige Einschränkungen hatte, nachdem ein Bericht der Tech-News-Site Futurism enthüllte, dass mehr als die Hälfte der von KI-Tools generierten Geschichten auf Fehler hin bearbeitet werden mussten. In einem Beispiel war CNET gezwungen, größere Korrekturen an einem erklärenden Artikel über Zinseszinsen vorzunehmen, der eine Reihe von Fehlern enthielt.