this post was submitted on 20 Nov 2024
44 points (97.8% liked)
DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz
2143 readers
385 users here now
Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org
___
founded 6 months ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Welche Möglichkeiten gibt es eigentlich im Fediversum um Propaganda zu verhindern? Mehr Moderation wird vermutlich schwierig ohne verlässliche Einnahmen, also Werbung oder Abos. Dabei müssten dann auch alle Instanzen mitmachen, um nicht von „sicheren“ Instanzen gesperrt zu werden. Mich würde eure Meinung dazu sehr interessieren, ich bin noch sehr neu hier.
Es gibt im Fediverse keine Algorithmen mit denen die Russen ihre Inhalte pushen können. Während man auf X schnell Netzweke durch Folgen, Liken und Teilen bilden kann, gibt es so etwas hier nicht. Insgesamt funktionieren die Mechanismen der anderen Plattformen nicht im Frdiverse.
Hier bliebe der Russe ein Außenseiter.
Ich denke soo sicher sind wir da auch nicht. Es gibt zwar keine Promotionalgorithmen, aber auch auf Lemmy gibt es "hot" und "active" discovery, und die Benutzer sind auch hier rage-bait und desinformation nicht immun. Der soziale und menschliche Aspekt/Manipulationsfläche bleibt, und die Inhalte-Plattform ist auch eine zentralisierte die das massenhafte Verbreiten ermöglicht. Zwar mit deutlich größeren Einschänkungen (Blocken, nur lokal, nur subscribed Ansichten), aber so sicher wie sich diese Beschreibung für mich angehört hat würde ich das nicht sehen.
Der menschliche Aspekt bleibt. Möglichkeit Bot-Netzwerke zur Promotion aufzubauen bleibt. Eine Plattform zur Massenverbreitung bleibt.
Lass es mich anders formulieren: Ich halte die Gefahr für deutlich geringer im Vergleich.
Das stimmt leider nicht - du kannst auch per API hoch- oder runtervoten. Es wäre überhaupt kein Problem feddit.org zu manipulieren, indem du dir so 20-50 Accounts klickst und dann Beiträge automatisiert votest. Wenn ich Lust hätte, könnte ich dir noch diesen Nachmittag ein Programm schreiben, das alle negativen Beiträge über Sahra Wagenknecht und die AfD mit 30 Downvotes versieht und alle positiven Beiträge dann 40x hochwählt. Und wenn das andere noch nicht machen, liegt das nur daran, dass Lemmy noch unter der Aufmerksamkeitsschwelle der entsprechenden Akteure liegt.
Ich glaub, dass das zwei Elemente sind: Zum einen, nein, es gibt keine vernünftigen Werkzeuge, um Propaganda und Manipulation zu verhindern. Die Modtools sind sehr basic und kriegen definitiv keine ausgefeilte Manipulationskampagne abgefangen.
Aber: Die Stärke von Lemmy (und eigentlich auch von Reddit, wenn der Konzern nicht gerade wieder genau diese Stärke attackiert) sind ja die menschlichen Moderatoren. Natürlich fällt es auf, wenn auf /c/dach plötzlich massenhaft Pro-AfD-Content gestreut wird. Das wird dann halt manuell wegmoderiert. Ein gutes Mod-Team ist Gold wert und auch der Grund, warum drüben bei Reddit /r/de noch funktioniert, aber /r/finanzen etwa gerade gekippt ist und gefühlt von den Gesellschaftsspaltungsbots übernommen wurde, die da jetzt fleißig das Narrativ von zu hohen Steuern, Rentenausfall, finanziellem Niedergang etc. pushen.
Naja, die Ip-Adressranges für Russland und Co sind bekannt, ebenso die üblichen VPNs, die von den Trollfabriken verwendet werden.
Einfach, wenn etwas Entsprechendes erkannt wird, automatisch ein Symbol ans lases dran und fertig
Schau dir einfach mal hier die Bilder an, wie Russland mittlerweile agiert.
https://therecord.media/ukraine-police-bust-another-bot-farm-spreading-pro-russia-propaganda
Sobald Föderation im Spiel ist, ist das mit den Adressranges komplett nutzlos. Es sei denn, ausnahmslos alle föderierten Server blockieren die bekannten Adressranges. Nutzys von anderen Servern sind hier nur als
@nutzy@andererserv.er
bekannt.dann hilft wohl nur, sich mit den Betreibern der anderen Server entsprechend abzustimmen, damit sowas - im Sinne des Schutzes vor Botarmeen - Einzug hält. Auf die Weise kann man entweder im Zweifel nachfragen, ODER es könnte ggf. sogar als Extra-Feature mit ins Lemmy einfließen.
Gerne auch so, dass es nur für Mods sichtbar ist.
Accounts sollten mit Adresse, amtlichen Dokument oder Foto verifiziert werden wie bei einer Bank damit user nicht massenweise bots erstellen können.
Bei größerer Reichweite sollte der Account Interessen oder Arbeitgeber/Geldgeber des Nutzers immer mit anzeigen, z.b. falls jemand ständig pro Kohlestrom Postings absetzt. Firmen, die ihre dort ihre Produkte bewerben sollten dafür bezahlen wenn sie die Platform für ihre Aufmerksamkeit nutzen wollen.
Likes und Kommentare sind auf derzeitigen social Media Seiten Währung, mit welchen posts Reichweite bekommen. Dementsprechend sollten diese Features für Nutzer entweder begrenzt werden (z.b. nur 5 Likes oder Kommentare pro Tag frei). Wenn ein User pro Tag 100 posts liked oder kommentiert dann sollte seine Interaktion das post weniger pushen als die von jemanden, der pro Tag nur auf wenige Postings reagiert.
Die Reichweite von privaten Postings und Kommentaren sollte beschränkt werden damit sich Fake News nicht so schnell und weit verbreiten, z.b. indem man Standardmäßig nur an seinen eigenen Freundeskreis Posten kann, oder Posts nur bis zu 2 Freundesebenen nach dem Ersteller geteilt werden können.
Wer gegen Regeln verstößt sollte im Wiederholungsfall immer länger gesperrt werden, erst einen Tag, dann 2, 4, 8, 16 Tage usw.
Scheint mir sehr schwer umsetzbar zu sein. Das Gute an Social Media oder Internet allgemein ist ja, dass man anonym seine Meinung äußern bzw. nach Hilfe suchen kann. Ich sehe auch ein Problem mit den Likes begrenzen. Propaganda-Bot kann es ja unendlich viele geben, dadurch wären echte User, die viel Online aktiv sind um Fakten zu pushen noch stärker benachteiligt. Ziel sollte es eher sein Social Media für Propaganda an sich unattraktiv zu machen. Vielleicht sogar durch zusätzliche Bots, die Propaganda und Fake News enttarnen und richtigstellen.
Nein, da wenn die user verifiziert sind sollte sich das bot Problem in Grenzen halten. Und Fake news oder Hass postings sind keine Meinung. Jeden alles sagen zu lassen funktioniert halt nicht, weil auf unmoderierten oder kommerziellen social Media Plattformen die Nutzer schon wieder 10 fake news gepostet haben bevor der erste Beitrag gemeldet und entfernt ist.
Ich denke schon das du recht hast wen man davon ausgehen in einem funktionierenden Rechtsstaat zu leben. Da das Internet aber international ist und auch bleiben sollte, müssen wir Situationen in anderen Staaten berücksichtigen. 100% Anonymität ist in Diktaturen extrem wichtig aber auch für z.b. LGBIQs in Religiösen Staaten. Was ich sagen möchte ist, dass Anonymität wichtig für eine funktionierende Demokratie ist. Es ist leider auch jedermanns Recht sich manipulieren zu lassen. Deshalb sehe ich Aufklärung mit allgemeinen anerkannten Quellen als das wichtigste Mittel Fake News zu bekämpfen.
Ja dann sollen diese Leute eine andere Plattform nutzen. Mit der selben Begründung dass er woanders seine Meinung nicht sagen darf ohne "zensiert" zu werden macht sich auch der nazionkel, der bei Familienfesten immer unangenehm auffällt auf solchen anonymen Plattformen breit.
Ist da irgendwo Ironie enthalten? Ich halte das nämlich für etwas drakonisch.
Wohin freie, ungeprüfte accounts für jeden führen sieht man ja auf Facebook, twitter und anderen Netzwerken. Und sobald irgendwelche Nazis die Plattform für sich entdecken wird man sie auch kaum wieder los.
Sehr späte Antwort: Ich glaub, das Problem ist ein anderes -- Facebook nutzt ja bereits eine Klarnamenregel & trotzdem ist es dort schlimmer als hier ohne so eine Regel. Ich denke, es kommt eher daher, dass das