this post was submitted on 12 Nov 2024
38 points (100.0% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

2049 readers
375 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 5 months ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
[–] CosmoNova@lemmy.world 20 points 1 week ago (3 children)

Solange noch drübergelesen wird, habe ich grundsätzlich kein Problem damit, dass Texte maschinell entstanden sind. Jedoch könnte es schnell dazu führen, dass die Seite damit überflutet wird und bald keiner mehr hinterherkommt. Also aus organisatorischen Gründen ist es dann schon sehr bedenklich. Besonders wenn ich mir ansehe, wie andere Seiten mit hundert mal mehr Ressourcen damit bereits völlig überfordert sind.

[–] gencha@lemm.ee 13 points 1 week ago (4 children)

Solange noch drüber gelesen wird? Die Leute generieren Abfall den sie gar nicht verstehen. Das können sie so lange lesen wie sie wollen. Erst wenn der Müll so genial klingt, dass man ihn selbst nicht mehr versteht, sind die Leute doch erst so richtig im Rausch. Es gibt keine kompetenten Personen die mit LLMs ihre Zeit verschwenden. Wenn man tatsächlich weiß was man schreiben will, dann tut man es einfach. Es ist unfassbar wie viele Leute auch mittlerweile echt glauben dieser LLM Output ist mit Fakten gleichzusetzen...

[–] cows_are_underrated 12 points 1 week ago

KI kann ein Helfer beim schreiben sein, ist jedoch, zumindest meiner Erfahrung nach, absolut nicht in der Lage die eigene Recherche und Schreibarbeit zu ersetzen.

[–] aktenkundig@discuss.tchncs.de 2 points 1 week ago (1 children)

Es gibt keine kompetenten Personen die mit LLMs ihre Zeit verschwenden.

Ja, klar. Völlig undenkbar /s

[–] gencha@lemm.ee 1 points 4 days ago (1 children)

Das eine schließt das andere vollkommen aus. Es gibt dort Überschneidungen wo Menschen Illusionen haben. Ich sehe immer wieder wie Leute sich um Kopf und Kragen reden, weil sie glauben sie sind kompetent und lassen sich nur Arbeit abnehmen. Ganz oft sind die Leute einfach so thematisch schwach, dass sie glauben diese Arbeit ist überhaupt nötig, anstatt einfach mal den Kern zu erkennen.

Statt ein Thema erklären zu können, generieren sie seitenweise Bullshit der irgendwie über das Thema redet.

Statt Algorithmen zur Lösung zu entwickeln, lässt man sich einfach einen Haufen Code generieren der irgendwie das gleiche macht.

Wenn du wirklich kompetent in einem Thema bist, und dir etwas von LLMs generieren lässt, dann korrigierst du jeden Satz.

Warum sollten du überhaupt deine Zeit damit verschwenden, wenn du das gesamte Wissen hast?

Die Leute wollen diesen Feedback Loop nur dann wenn sie eben nicht kompetent sind. Und dann wollen sie sich im Consumer Pleasing Bias des LLM einen runterholen. Das ist alles.

Ich finde diese Aussage ist ähnlich überzogen, wie "Kompetente Übersetzer benutzen bei der Arbeit keine Hilfsmittel. Kein Wörterbuch, keine Rechtschreibprüfung, kein Thesaurus."

Warum sollten du überhaupt deine Zeit damit verschwenden, wenn du das gesamte Wissen hast?

Kompetent ist nicht gleichzusetzen mit "das gesamte Wissen haben". Niemand der in einem komplexen Feld arbeitet hat "das gesamte Wissen" darüber.

I

[–] CosmoNova@lemmy.world 2 points 1 week ago* (last edited 1 week ago) (1 children)

Mein Kommentar setzt nunmal voraus, das da jemand mit Ahnung drüber liest und einen Fachtext als Vorlage nimmt, statt ChatGPT einfach nur danach zu fragen und das erstbeste zu nehmen. Es ging mir dabei um den Grundsatz, also ob es theoretisch ein Problem sein muss und meine Antwort ist nein, es kann nützlich sein.

Ich hätte grundsätzlich erst mal nichts gegen generierte Formulierungen. Hier geht es ja nicht darum Kunstwerke zu schaffen, sondern darum, Wissen zugänglich zu machen.

Ich denke da eher in Richtung Zusammenfassungen von Fachtexten schreiben lassen über Themen, die man tatsächlich versteht. Als eine art Praktikanten-Assistent funktioniert das schon ganz gut. Denn auch wenn die Qualität oft nicht die beste ist und die Natur des Textes dem Thema manchmal nicht gerecht wird, sind die wichtigen Punkte meist alle drin und korrekt zusammengefasst.

Auf die Probleme bin ich ja auch schon eingegangen, denn Theorie und Anwendung sind hier zwei ganz verschiedene paar Schuh, wie ich bereits schilderte.

[–] gencha@lemm.ee 1 points 4 days ago

Ich habe dein Kommentar auch eher als Aufhänger genommen. Ich wollte eigentlich gar nicht so sehr kritisieren. Danke trotzdem für die Erklärungen. Ich glaube aber du beschreibst trotzdem eher eine Hoffnung, nicht die Realität. Das wollte ich hervorheben

[–] Petter1@lemm.ee 0 points 1 week ago (1 children)

Ich glaube gencha kann nicht mit generativer AI umgehen 🤔

[–] gencha@lemm.ee 1 points 4 days ago

Kann sein. Das kann man ja selbst oft schlecht beurteilen wie kompetent man tatsächlich ist

[–] Mixel 8 points 1 week ago (1 children)

Geb ich dir recht! Das einzige Problem was ich auch noch sehe ist das die Texte sich alle gleich anhören und selten viel Substanz kurz zusammenfassen sondern es lang gestreckt ist was meisten bei llm generierten texten der Fall ist

[–] Petter1@lemm.ee 1 points 1 week ago

Mit dem richtigen prompt kann man hier schon entgegenwirken.

[–] Kissaki 7 points 1 week ago* (last edited 1 week ago)

Ich bin etwas skeptisch ob ein Drüberlesen oder Prüfungsprozess ausreicht. Gerade auch weil auf Wikipedia nicht nur, oder ich nehme an nicht flächendeckend und ausreichend erfahrene und wissende, sorgfältige Freiwillige mitarbeiten dass das ausreichend sichergestellt werden könnte.

Dazu verlinke ich den EN Artikel Why AI Can Push You to Make the Wrong Decision at Work.

When the AI provided an incorrect result, researchers found inexperienced and moderately experienced radiologists dropped their cancer-detecting accuracy from around 80% to about 22%. Very experienced radiologists’ accuracy dropped from nearly 80% to 45%.

Wikipedia ist mir zu wichtig um dort großflächig zu experimentieren, ohne klaren Aus- oder Rückweg, wenn man befürchten muss dass beim Prüfen nur 20-40 % der Falschaussagen bemerkt werden.

Kann man vielleicht nicht so gleich setzen, aber macht mich zumindest skeptisch. Für Zuversicht bräuchte ich andere Argumentation oder Grundlagen. Text auf Fakten prüfen ist auch nicht unbedingt simpel. Ist ja jetzt vielleicht schon ein Problem.

Ein Ansatz von jemand der sich auskennt schreibt mit einer KI könnte besser sein als wir akzeptieren KI Beiträge und prüfen das. Zum Beispiel.

Interessanter könnte sein KI zum Prüfen und Melden von Verdachtsfällen zu nutzen.