this post was submitted on 21 Sep 2023
0 points (NaN% liked)

DACH - jetzt auf feddit.org

8711 readers
1 users here now

Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!

Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos

Auch hier gelten die Serverregeln von https://feddit.de !

Banner: SirSamuelVimes

founded 1 year ago
MODERATORS
 

Diesen Text wollte ich mit euch teilen, weil mich interessiert, wie eure Einstellung zu KI-generierten Zeitungsartikeln ist. Ich würde diese aus Prinzip nicht lesen, da diese für mich keinen Mehrwert bieten. Darum finde ich es den Lesern gegenüber unverschämt, wenn man einen "echt" wirkenden Autorennamen (sogar mit menschlichem Bild!) an den Artikel anhängt, anstelle ehrlich zu sein mit "Quelle: ChatGPT" und ein Bild einer Platine o.ä.

Volltext:

Sie braucht keinen Schlaf: Beim Kölner „Express“ arbeitet eine neue Kollegin. Sie ist ungeheuer fleißig. Ihre Texte sind allerdings mit größter Vorsicht zu genießen.

Dürfen wir Ihnen die Journalistin des Monats, ach was – lassen Sie uns doch gleich Wochenzeitungssuperlative gebrauchen –, des Jahrhunderts vorstellen? Klara Indernach, bitte sehr. Sie arbeitet beim Kölner Boulevardblatt „Express“, sie hat nie schlechte Laune, braucht keinen Schlaf, kein Koffein – ihre bewusstseinserweiternde Droge ist Text – und, das Beste: Lohn braucht sie auch nicht.

Nein, die Neue beim Kölner „Express“ ist keine Praktikantin, sondern vollwertiges Mitglied der Redaktion. Und als eine Art „Digital Native“ ein echtes Arbeitstier. Allein am Dienstag erschienen von ihr dreizehn Texte, der erste um 7.45 Uhr, der letzte um 23.52 Uhr. Sie schreibt über Sport, Gesundheit, Verbrechen, Köln und Umland, Prominente, Trash-TV, Verkehr, aber auch über Nachhaltigkeit.

Ein besonderes Händchen hat sie für Hammer-Schlagzeilen: „Und das schon seit Jahren / Rachel stillt ihren Ehemann (30) viermal täglich“; „Steuert Sylt auf Notstand zu? / Feuerwehr gibt Menschen Anweisungen für Brandfall: ‚Viel Erfolg‘“; „Fuß ihres Babys schaute bereits heraus / Teenagerin bemerkt Schwangerschaft erst kurz vor der Geburt“. Ist Frau Indernach eine Zeitreisende?

Kleines Manko: Ihre Texte fesseln den Leser vermutlich nicht so sehr, dass er sie bis zum Ende liest. Das müsste er aber, um das finstere Geheimnis der neuen „Express“-Kollegin zu erfahren: Frau Indernach ist eine Zeitreisende, die immer wieder in denselben Arbeitstag zurückreist, um den Clickbait-Artikelausstoß des Blattes signifikant in die Höhe zu treiben. Kleiner Scherz, Frau Indernach ist keine Frau, zumindest nicht im biologischen Sinne, auch kein Mensch. Am Ende ihrer Texte findet sich folgender Hinweis: „Dieser Text wurde mit Hilfe Künstlicher Intelligenz erstellt.“

Das Programm Frau Indernach schreibt nicht, es „erstellt“. Das ist ernüchternd. Der Blick aufs Autorenprofil verrät: „Klara Indernach ist der Name für Texte, die wir mit Hilfe Künstlicher Intelligenz erstellen. Wenn Artikel zu einem großen Teil mit Hilfe von KI generiert wurden, markieren wir sie entsprechend.“ Aber wer ist diese sympathische blonde Frau, die uns vom Autorinnenfoto entgegenlächelt? „Das Profilfoto wurde mit Hilfe von Midjourney (A. d. R.: ein durch Künstliche Intelligenz unterstützter Bildgenerator) erstellt.“

Was tröstet uns Journalisten an dieser Geschichte, in der K.I. für vieles stehen kann (kluges Investment, kalte Ignoranz oder Kölner Irrweg)? Allenfalls, dass mit der Erstellung von Texten mit Titeln wie „Deutlich gezeichnet / Ging ,Knossi‘ in Kanada durch die Hölle? Erstes Statement nach Überlebenskampf“ kein menschliches Gehirn mehr belästigt wurde. Traurig bleibt, dass es einer steigenden Zahl an Lesern egal sein wird.

top 22 comments
sorted by: hot top controversial new old
[–] nottheengineer@feddit.de 0 points 1 year ago (1 children)

Und genau deshalb sind Nachrichten ohne Kommentare heutzutage nicht mehr ernstzunehmen.

Bei so einem Schwachsinn kann man sich darauf verlassen, dass in den ersten 10 Kommentaren jemand einen Teil des Artikels oder den ganzen Artikel widerlegt.

Das wird zwar nicht ewig so bleiben, aber aktuell fährt man damit ganz gut.

Ich bin deshalb hauptsächlich auf Hacker News unterwegs, da ist allerdings das Themengebiet bewusst begrenzt.

[–] marv99@feddit.de 0 points 1 year ago

Ich finde Nachrichten mit einfach folgbaren Quellen auch brauchbar.

[–] DrunkenPirate@feddit.de 0 points 1 year ago (2 children)

Ich finde das gut. Nein ganz im Ernst. Ich finde es gut für einige Anwendungsfälle:

  • Regionalsport, denn da fährt kein Reporter mehr hin und schreibt das anschließend auf
  • Wetter
  • Börse
  • Rathaus und Gemeindenews
  • Neuigkeiten aus dem Viertel

Also alles Texte, die eine kleine Reichweite haben und unter die Rubrik „es könnte jemand mal lesen, aber nicht sehr oft“ Einweg-Wegwerf-Texte.

Alles wo mit Recherche, Hintergrundwissen, Einordnendes oder Kommentare, dann eher nicht. Ob die freie Zeit der Journalisten, dann auch für mehr qualitativen Journalismus eingesetzt wird, ist eine Gedchäftsfrage des Verlages. Vermutlich nicht. Ist aber nicht weiter schlimm, denn ein paar Jahre weitergedacht hat jeder seinen persönlichen KI- Journalisten, der maßgeschneiderte News schreibt. Dann ist der Verlag eh weg und pleite. Journalisten werden vermutlich in Eigenverlagen ihre News digital verkaufen.

[–] taladar@feddit.de 0 points 1 year ago

Die genannten Kategorien kann man aber auch leicht einfach von der Quelle übernehmen. Die Artikel zu den Konzerten des Chors meiner Mutter z.B. schreibt schon lange einfach ein Chor-Mitglied und schickt sie an die Zeitungen.

[–] Spzi@lemm.ee 0 points 1 year ago (1 children)

Bin grundsätzlich bei dir. Allerdings:

Alles wo mit Recherche, Hintergrundwissen, Einordnendes oder Kommentare, dann eher nicht.

Da habe ich sofort an Rathaus und Gemeindenews gedacht, Politik eben. Kurz gefolgt von Neuigkeiten aus dem Viertel. Beides Themen, wo mit Framing (oder dessen Unterlassung) ein bestimmtes Bild erzeugt (oder vermieden) werden kann.

Beispiel Andy Grothe. Man hätte schlicht berichten können, dass er in Sorge um unsere Gesundheit feiernde Menschen zu mehr Umsicht aufruft. Ohne den Kontext, dass er selbst unter Mißachtung von Corona-Auflagen gefeiert hat, wäre da gar nicht erkennbar gewesen, dass er so 1 Pimmel ist.

Je länger ich suche, desto mehr fällt mir ein. Börse und Wetter, sind ebenfalls mit Politik verknüpft, und können relevanten Kontext haben, der Einordnung bedarf.

Und beim Sport schreibst du in einem späteren Kommentar selber:

was gerade die Liga so spannend macht mit zwei Rivalen auf den obersten Plätzen


Aber vielleicht hast du genau die Lösung gemeint; als default KI-Texte, und in besonders interessanten Kontexten menschliche Zuarbeit.

[–] DrunkenPirate@feddit.de 0 points 1 year ago

Ich habe ja auch keine Ahnung, wie sich das entwickeln wird. Ist ja nicht alles schlecht.

Mir fällt grade ein, die Stärken von LLMs sind auch das Zusammenfassen von langen und langweiligen Texten in kurz und verständlicher, einfacher Sprache. Marke „Übersetze die Scholzrede in einfache Sätze und einfache Wörter mit maximal 300 Wörtern.“

[–] federalreverse@feddit.de 0 points 1 year ago* (last edited 1 year ago) (2 children)

Wortwörtlich vorgestern wollte ich fast den Link zum Profil von Frau Indernach hier pfostieren... Weil ich das ziemlich dreist fand, erst am Ende des Artikels zu schreiben, dass der Artikel von KI verfasst wurde. Genauso wie ich es extrem dreist fand, das Ganze mit dem Porträt eines Menschen zu garnieren. Dass das ein KI-generierter Mensch ist, sieht man gar nicht; wenigstens so ein rotes Terminator-Auge hätte man einbauen können.

[–] polle@feddit.de 0 points 1 year ago

Ich glaube es ist mittlerweile naiv anzunehmen das irgendein Artikel von einem echten Menschen geschrieben wurde.

[–] smollittlefrog@lemdro.id 0 points 1 year ago (2 children)

Wieso ist es relevant, ob der Artikel von einer KI verfasst wurde, wenn es (bis zum Ende) gar nicht auffällt?

[–] federalreverse@feddit.de 0 points 1 year ago (1 children)

Meine Erwartungshaltung ist, dass die Artikel in einer Zeitung von Menschen erstellt wurden und damit geht auch ein gewisses Vertrauen in deren Wahrhaftigkeit und Maßstäbe einher.

Meine Erwartung bezüglich des Wahrheits-/Informationsgehalts ist bei KI-Texten niedriger. Die Texte werden zwar gepromptet, bearbeitet und geprüft, aber wenn eine Redaktion schon ¾ der Arbeit mit KI spart, erwarte ich keine besonders tollen Prüfungen oder dass dabei alles Verquere gefunden wird. Ich finde auch, das Verwenden von KI-Texten rückt diese Zeitungen stärker in die Nähe von Spamblogs.

Und dann finde ich es völlig daneben, diese KI mit menschlichem Foto und Name zu versehen. Wie gesagt, Vertrauen.

[–] AnAngryAlpaca@feddit.de 0 points 1 year ago* (last edited 1 year ago) (1 children)

Meine Erwartungshaltung ist, dass die Artikel in einer Zeitung von Menschen erstellt wurden und damit geht auch ein gewisses Vertrauen in deren Wahrhaftigkeit und Maßstäbe einher.

Naja, wir reden ja trotzdem noch vom Kölner Express...

[–] federalreverse@feddit.de 0 points 1 year ago

Schon recht. Wenn das Zeitungslogo rot-weiß ist, muss man auf der gesamten Seite vorsichtig sein...

[–] Black616Angel@feddit.de 0 points 1 year ago (2 children)

Weil Dinge, die von KIs erstellt werden immer realistisch wirken, bis man sich WIRKLICH damit beschäftigt.

"Oh, da ist noch Finger extra, den man fast nicht sieht." oder "Hmm, wenn ich die Text Quelle suche, finde ich nix."

Mit solchen Dingen muss man rechnen. Das Problem hierbei ist, dass jemand, der, wie im Artikel erwähnt, nicht bis zum Ende liest, gar nicht mitbekommt, dass es ein KI-"geschriebener" Text ist. Dadurch kann der gelesene Text auch nicht korrekt eingeordnet werden.

Wir haben ja jetzt schon das Problem, dass die Leute (ich auch) zu oft nur die Überschrift lesen und diese dann im Text widerlegt oder ignoriert wird. Jetzt wird es selbst für Leute, die wenigstens noch einen Teil des Artikels oder Zitate daraus lesen, schwierig, einzuordnen, ob dieser Text so stimmig ist.

Und jetzt mal ganz ehrlich, die machen diese Vorstellung nur, damit sie später den Namen drunter schreiben und sich den Hinweis auf KI sparen können und dann kann es niemand mehr nachvollziehen.

[–] Turun@feddit.de 0 points 1 year ago (1 children)

Wieso hat der Autor einen Einfluss darauf, wie du einen Text einordnest? Steht das Werk nicht für sich? Ich versteh die Position, wenn es eine befangene Person ist. Aber wenn du die Namen aller Journalisten in Deutschland kennst, nur um Texte einordnen zu können, tut ein neuer Name auch nichts mehr zur Sache.

Der Mangel an Quellen ist jetzt wahrlich nicht neu in Zeitungsartikeln.

[–] Black616Angel@feddit.de 0 points 1 year ago (1 children)

Ich weiß, worauf du hinaus willst, aber verstehst du meinen Punkt tatsächlich nicht?

[–] Turun@feddit.de 0 points 11 months ago (1 children)

Ich verstehe deinen Punkt so, dass du der Ansicht bist, dass AI Quellen nur erfinden kann, und es zwangsläufig immer logische Fehlschlüsse gibt. Eine klare Kennzeichnung ist deshalb zwingend notwendig, damit man als Leser entsprechend sorgfältig den Text liest und alle Fehler finden kann.

Meine Position ist, dass das erstens nicht immer so sein muss, bard oder Bing AI können zum Beispiel Webseiten zitieren, und zweitens trifft das auf so einige Journalisten auch zu. Ich sehe also für Unterhaltungsnachrichten kein Problem für den Einsatz von AI.

[–] Black616Angel@feddit.de 0 points 11 months ago

Okay, ich verstehe deine Position jetzt auch.

Agree to disagree. 🙂

[–] A2PKXG@feddit.de 0 points 1 year ago (1 children)

Ich tue mich schon schwer, Leute beim Lüge zu ertappen, weil die Motivation zu lügen für mich oft nicht nachvollziehbar ist. Dabei meine ich nicht das leugnen von Fehlern, sondern vielmehr das erfinden von positiven Dingen. Das ist mir fremd. Aber man gewöhnt sich dran, und kann irgendwann mit allen Menschen umgehen.

So eine KI macht aber Fehler, mit denen wir bisher gar nicht konfrontiert waren. Und die auch völlig ohne Intention stattfinden. Das macht es besonders knifflig. Die ki hat keine Agenda, keine Meinung. Jedenfalls nicht intrinsisch.

[–] Turun@feddit.de 0 points 11 months ago

Je nach Trainingsmaterial kann eine AI durchaus eine Meinung haben. Wenn das Wort LGBT ausschließlich mit negativen Meinungen zusammenhängt wird das Modell diese Verknüpfung lernen. Angeblich sollen die Falcon Modelle, die von TUI in Saudi-Arabien/UAE trainierten wurde, da ein paar eingeschränkte Meinungen haben. (Habe ich aber noch nicht selber überprüfen können)

[–] A2PKXG@feddit.de 0 points 1 year ago

Muss für Journalisten schon frustrierend sein. Sie haben definitiv Qualitäten, die eine KI nicht bieten kann. Ob das aber langfristig reicht, um Geld zu verdienen, ist leider fraglich. Ich denke, die Zukunft der Qualitätsmedien wird in der Hand von gemeinnützigen Stiftungen liegen. Einen Business-Case haben die nämlich nicht.

[–] marv99@feddit.de 0 points 1 year ago

Vielleicht interessiert ja wen, was ChatGPT dazu meinte. Dazu einfach im Superkommentar meines vielbeachteten Posts in der KI-Community die Antwort aufklappen. Punkt 4 wird euch überraschen (Späßle).

[–] Zacryon@feddit.de 0 points 1 year ago

Wer Boulevardblätter liest, hat ohnehin keinen Respekt verdient. Da regt sich OP hier darüber auf, dass in einem unseriösen Medienformat unseriöse Quellen und Autoren eingesetzt werden.