Künstliche Intelligenz

79 readers
6 users here now

Community für Austausch zum Thema Künstliche Intelligenz.

#ai #ki #artificial-intelligence

Wikipedia: "Künstliche Intelligenz (KI), auch artifizielle Intelligenz (AI), englisch artificial intelligence, ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst. Der Begriff ist schwierig zu definieren, da es bereits an einer genauen Definition von Intelligenz mangelt. "

Anwendungen:

Verwandte Communities:

IT Communities:

Netiquette wird vorausgesetzt. Gepflegt wird ein respektvoller Umgang - ohne Hass, Hetze, Diskriminierung.

Bitte beachtet die Regeln von Feddit.org.

Attribution

  • Das Banner zeigt ein Symbolbild für Künstliche Intelligenz. Image by Gerd Altmann on Pixabay
  • Das Icon zeigt ein von marv99 mit Image Creator erzeugtes Logo.

founded 4 months ago
MODERATORS
26
27
28
 
 

Helfer mit Schattenseiten: Künstliche Intelligenz ist nützlich – auch für dunkle Machenschaften. Wie und warum KI heute am häufigsten missbraucht wird, hat nun eine Google-Studie untersucht und kategorisiert. Demzufolge sind Fakes und Deepfakes mit betrügerischer oder manipulativer Absicht die mit Abstand häufigste Form des KI-Missbrauchs. Aber auch eine direkte Manipulation der KI-Systeme selbst kommt vor. Was aber lässt sich dagegen tun?

Paper: Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data | PDF

29
 
 

Ein besonders kurioses Verhalten zeigte die KI beim Arbeiten unter Zeitdruck. Statt den Code zum Bearbeiten einer Aufgabe zu optimieren, um innerhalb des vorgegebenen Time-outs fertig zu werden, versuchte The AI Scientist, mit einer Änderung seines Codes die Time-out-Periode zu verlängern.

Zugehöriger Blog-Eintrag: The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery

30
 
 

cross-posted from: https://feddit.org/post/1849676

31
32
33
34
 
 

Stimmenimitation eigentlich nicht möglich

Im von OpenAI genannten Beispiel antwortet das KI-Modell auf einen Satz des Anwenders mit einem entschiedenen "Nein!" und fährt mit der Stimme des Red-Teamers fort, der zu Beginn des auch bei Reddit publizierten Audio-Clips zu hören ist. Solche Personen führen für die Firmen kontroverse Tests durch. Dabei sollte ChatGPT laut OpenAI auch mit erweitertem Sprachmodus keine Stimmen anderer Personen imitieren können. Es gibt vier voreingestellte Stimmen, die in Zusammenarbeit mit Synchronsprechern entwickelt wurden.

Dass das KI-Modell bei einer natürlichen Unterhaltung mit der Stimme eines Nutzers antwortet, ist nicht nur unerwartet, sondern auch unheimlich. OpenAI hat eigentlich Sicherheitsvorkehrungen, um diese Fälle zu vermeiden. Es handele sich allerdings um Einzelfälle und das Risiko des Auftretens sei minimal, aber es kann eben doch vorkommen. Das ist auch einer der Gründe, warum der Sprachmodus bisher nicht in der Breite ausgerollt wird. Da das Risiko bei anderen Sprachen als Englisch höher ist, muss OpenAI daran auch noch arbeiten.

35
 
 

Schwimmbäder dürften bald häufiger künstliche Intelligenz (KI) als Unterstützung für Badeaufsichten einsetzen. Necdet Mantar von der Arbeitsgemeinschaft öffentliche Bäder Baden-Württemberg begründete diese Einschätzung mit dem Personalmangel, wenngleich die Technik keine Menschen ersetze.

Sie sorge aber dafür, dass Notfälle beziehungsweise mögliche Ertrinkungsfälle schneller an die Fachleute am Beckenrand gemeldet würden, die somit auch rascher reagieren könnten.

36
4
submitted 2 months ago* (last edited 2 months ago) by marv99 to c/kintelligenz
 
 

Faktoren wie Reibung, Verschleiß und Materialermüdung bringen im Produktionsalltag große wirtschaftliche Verluste. Durch die Komplexität und unterschiedliche Nutzungsgrade von Industrieanlagen ist es schwierig, den Zeitpunkt für Ersatz und Austausch von Komponenten genau vorherzusagen. Dr. Stefanie Hanke, Professorin für Werkstofftechnik an der Fakultät für Ingenieurwissenschaften der Universität Duisburg-Essen, arbeitet an einer KI-basierten Methode, um Materialverschleiß präzise vorhersagen zu können.

37
 
 

geteilt von: https://feddit.org/post/1727041

"Google Deepmind hat einen Roboter entwickelt, der beim Tischtennisspielen mit einem Anfänger mithalten können soll. Im Wettkampf erreichte der von Künstlicher Intelligenz (KI) gesteuerte Roboter die Leistung eines menschlichen Amateurs, erklärt Googles KI-Forschungseinheit. Menschen bräuchten jahrelanges Training, um im Tischtennis ein hohes Leistungsniveau zu erreichen.

Besondere Herausforderungen beim Tischtennis seien die Geschwindigkeit und die Hand-Auge-Koordination, so die Google-Forscher. Mit dem Roboter sei ein Schritt in die Richtung gelungen, dass Roboter bei physischen Aufgaben Geschwindigkeit und Leistung auf menschlichem Niveau erreichen. Der Roboter trat gegen 29 Spieler an, die Fähigkeiten zwischen Anfänger- und Turnierniveau mitbrachten. 13 der Matches gewann der Roboter. Die besten Spieler konnte er nicht besiegen. Dafür gewann er gegen alle Anfänger und mit 55 Prozent mehr als die Hälfte der Spiele gegen fortgeschrittene Spieler. Das zeige eine solide Leistung auf menschlichem Amateur-Niveau, erklärt das Forschungsteam in seinem Paper.

Hybrides Modell ermöglicht schnelle Koordination

Der Roboter ist demnach in der Lage, auch komplexe physische Aufgaben zu bewältigen. Tischtennis erfordert eine blitzschnelle Entscheidung und die Fähigkeit, sich dynamisch an das Spiel und den Gegner anzupassen. Der Roboter tut dies mittels einer Kombination aus Low-Level-Skill-Policies und einem High-Level-Strategie-Entscheider. Dank Ersteren ist der Roboter in der Lage, die spezifischen Tischtennis-Bewegungen wie Vor- oder Rückhandschläge und Aufschläge durchzuführen. Der zweite Teil analysiert das Spiel und passt sich an den Stil des Gegners an: Er entscheidet er darüber, welche der erstgenannten Techniken der Roboter in der jeweiligen Spielsituation einsetzt.

Eine Besonderheit sah das Forschungsteam vor allem im Training der Künstlichen Intelligenz. In einem hybriden Ansatz kombinierte es Verstärkungslernen (Reinforcement Learning) mit Nachahmungslernen (Imitation learning). Ersteres kommt für dynamische Steuerungsaufgaben zum Einsatz, etwa bei Fortbewegungen von Vierbeinern, und wird oft erst in der Simulation durchgeführt. Die Herausforderung ist, dass die Simulation nicht immer der Realität entspricht. Das soll die zweite Lernmethode aufheben: Das Nachahmungslernen orientiert sich an Beispielen, die die gewünschte Aufgabe gut lösen, was dann kopiert wird. Das schließt laut dem Paper des Forschungsteams die Lücke zwischen Simulation und Realität.

Verfolgung der Echtzeit-Spielstatistik

Der Roboter trat nach einem ersten Lernprozess mit wenigen Trainingsdaten aus menschlichen Spielen gegen einen menschlichen Gegner an. Mit jedem echten Match entstanden neue Daten, die wiederum in das Training einflossen. Der Roboter konnte seine eigene Leistung dadurch in mehreren Iterationen steigern. Allerdings war die KI vor allem in der Lage, sich an wechselnde Umweltbedingungen anzupassen – nicht aber an Menschen. Um Letzteres zu ermöglichen, verfolgten die Forscher in Echtzeit die Spielstatistiken, über die Stärken und Schwächen des Gegners und des Roboters deutlich wurden. Darüber konnte der Roboter sich mehreren wechselnden Gegnern besser anpassen.

Schwierigkeiten hat der Roboter bei ausgefeilteren Techniken. So sind besonders hoch oder schnell gespielte Bälle ein Problem. Das Forschungsteam vermutet die Ursache in der Latenz des Systems und fehlenden Daten. Auch das Rückhandspielen fällt dem Roboter eher schwer. Außerdem erkennt das System einen starken Spin des Balls nicht gut."

38
39
4
submitted 3 months ago* (last edited 3 months ago) by marv99 to c/kintelligenz
 
 

Nvidia soll heimlich riesige Mengen Videos aus verschiedenen Onlinequellen, darunter Youtube und Netflix, für das KI-Training genutzt haben.

Laut den durchgesickerten Slack-Nachrichten und E-Mails, die 404 Media erhielt, wurden Nvidia-Mitarbeiter angewiesen, Millionen von Videos mithilfe automatisierter Tools herunterzuladen. Das Ziel des Unternehmens sei es gewesen, "Trainingsdaten im Wert einer visuellen Erfahrung eines Menschenlebens pro Tag" zu sammeln.

40
41
 
 

Die Open Source-Modelle Llama 3.1 von Meta und Mistral Large 2 vom französischen Startup Mistral können seit letzter Woche mit OpenAI & Co. mithalten. Was bedeuten die freien Modelle für die KI-Landschaft? Wer profitiert? Und warum könnte das deutsche KI-Startup Aleph Alpha sich eher weniger über die Neuigkeit freuen?

Über die Hosts:
Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins. Marie Kilg ist Chief AI Officer bei der Deutschen Welle. Zuvor war sie Produkt-Managerin bei Amazon Alexa.

42
3
submitted 3 months ago* (last edited 3 months ago) by marv99 to c/kintelligenz
 
 

Künstliche Intelligenz gilt als Zukunftstechnologie, doch Verbraucher reagieren skeptisch. Eine neue Studie zeigt: Die explizite Erwähnung von KI in Produktbeschreibungen senkt die Kaufbereitschaft deutlich. Was steckt hinter diesem überraschenden Trend?

Artikel als PDF

Washington State University, Pressemitteilung: Using the term ‘artificial intelligence’ in product descriptions reduces purchase intentions

Paper: unfrei

43
 
 

Zerstörerischer Kreislauf: Immer mehr Internet-Inhalte stammen von künstlichen Intelligenzen und bilden damit das Trainingsmaterial der nächsten KI-Generationen. Doch das könnte fatale Folgen haben, wie nun ein Experiment aufdeckt: Schon nach wenigen KI-Generationen führt dieser „Zirkelschluss“ zum Kollaps von Sprachmodellen. Die Resultate werden immer schlechter, bis die KI-Systeme schließlich nur noch Unsinn ausgeben, wie Forscher in „Nature“ berichten. Wie aber ließe sich das verhindern?

Paper: AI models collapse when trained on recursively generated data | PDF

Älterer Post zum Thema:

44
45
46
 
 

Meta und Mark Zuckerberg selbst sehen in der Veröffentlichung der KI-Modelle als Open-Source auch die besten Chancen für die Weiterentwicklung und die Sicherheit. Dabei vergleicht Zuckerberg die Entwicklungen mit denen von Linux. Er möchte seine Modelle zum "Industrie-Standard" machen, also zu den am meisten genutzten und fortschrittlichsten KI-Modellen. In Open-Source sieht er die Chance, dass jeder KI-Modelle nach seinen Bedürfnissen entwickeln kann. Zudem würden viele Unternehmen und Organisationen nicht von einem Anbieter abhängig sein wollen, geschweige denn, ihre Daten über eine API in die Cloud senden. Vorteil ist laut Blogbeitrag von Zuckerberg auch, dass Entwickler Llama 3.1 405B auf ihrer eigenen Infrastruktur laufen lassen können – bei etwa 50 Prozent der Kosten der Nutzung von GPT-4o.

Open-Source erlaube es außerdem, fortschrittlicher zu sein, meint Zuckerberg. Es werde ein ganzes Ökosystem rund um die Modelle entstehen. Und weil es nicht die Haupteinnahmequelle Metas ist, könne man sich erlauben, die Modelle frei zur Verfügung zu stellen.

47
48
 
 

"Eine Glasur überm Werk

Seit März 2023 entwickelt die University of Chicago mit einem mehrköpfigen Team „The Glaze Project“. Das nicht profitorientierte Projekt umfasst mehrere Programme, von denen insbesondere „Glaze“ und „Night­shade“ genutzt werden. Mit unterschiedlichen Funktionsweisen sollen beide Programme Kunstschaffende vor dem KI-Raub schützen.

„Glaze“ legt einen Filter über das jeweilige Bild, der die Anordnung der Pixel minimal verändert. Während das menschliche Auge das kaum erkennt, ist es umso deutlicher für die KI. Das Motiv des Kunstwerkes erkennt die KI zwar weiterhin, dafür schützt „Glaze“ den Stil der jeweiligen Künst­le­r:in, indem es eine Art Glasur über das Werk legt. Nach der Bearbeitung wird ein Bild in Comic-Optik von der KI nur noch als Ölgemälde oder Pop-Art ausgelesen.

Künst­le­r:in­nen sollten „Glaze“ verwenden, bevor sie ein Bild potenziell einer KI ausliefern und auf Plattformen wie Instagram oder Pinterest hochladen. Das Team hinter „Glaze“ nennt es auf ihrer Website ein „Instrument zur Verteidigung“. (...)

Das Programm ist über die Website der University of Chicago frei zugänglich, kostenlos nutzbar und eines der wenigen Werkzeuge, das Kunstschaffende im Kampf gegen KI haben. Und wenn ihre Kritik an den scheinbar übermächtigen Bildgeneratoren nicht gehört wird, müssen sich Künst­le­r:in­nen mit allen Mitteln zur Wehr setzen."

49
11
submitted 3 months ago* (last edited 3 months ago) by General_Effort@lemmy.world to c/kintelligenz
 
 

Was hier am Ende des Rechtsstreits entschieden wird, wird auch Auswirkungen auf die Arbeit von Wikimedia haben, gerade was unsere Arbeit in der Softwareabteilung mit Open-Source-Communitys betrifft.

50
1
submitted 3 months ago* (last edited 3 months ago) by marv99 to c/kintelligenz
 
 

OpenAI stellt GPT-4o mini vor: Ein kosten­günstig­eres und lei­stungs­fähigeres KI-Modell, das GPT-3.5 ablösen soll. Das multi­modale System verspricht verbesserte Effizienz für Entwickler und Unternehmen.

Artikel als PDF: GPT-4o mini: OpenAIs neues KI-Modell spart Kosten bei mehr Leistung

view more: ‹ prev next ›