Künstliche Intelligenz

61 readers
16 users here now

Community für Austausch zum Thema Künstliche Intelligenz.

#ai #ki #artificial-intelligence

Wikipedia: "Künstliche Intelligenz (KI), auch artifizielle Intelligenz (AI), englisch artificial intelligence, ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst. Der Begriff ist schwierig zu definieren, da es bereits an einer genauen Definition von Intelligenz mangelt. "

Anwendungen:

Verwandte Communities:

IT Communities:

Netiquette wird vorausgesetzt. Gepflegt wird ein respektvoller Umgang - ohne Hass, Hetze, Diskriminierung.

Bitte beachtet die Regeln von Feddit.org.

Attribution

  • Das Banner zeigt ein Symbolbild für Künstliche Intelligenz. Image by Gerd Altmann on Pixabay
  • Das Icon zeigt ein von marv99 mit Image Creator erzeugtes Logo.

founded 1 month ago
MODERATORS
1
5
No one’s ready for this (www.theverge.com)
submitted 10 hours ago* (last edited 10 hours ago) by Der_aus_Aux to c/kintelligenz
 
 

«Anyone who buys a Pixel 9 — the latest model of Google’s flagship phone, available starting this week — will have access to the easiest, breeziest user interface for top-tier lies, built right into their mobile device» 🫠

2
 
 

"Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet. (...)

Medienethikerin Heesen: Vorsicht! Ein KI-Chat halluziniert

KI-Chats seien darauf trainiert, immer etwas zu antworten, um ein Gespräch mit dem Nutzer zu führen. Es würden dann auch fiktive Inhalte erzeugt, die gar nichts mit der Wahrheit zu tun hätten.

Microsoft übernimmt keine Haftung für Aussagen des Chats

Beschwerden über Inhalte von Chats seien schwierig, so die Einschätzung der KI-Expertin gegenüber dem SWR. Jeder, der den Chat benutze, erkläre sich mit den Nutzungsbedingungen einverstanden. Und darin stehe, dass Microsoft für die Antworten keine Haftung übernehme."

3
5
submitted 3 days ago* (last edited 3 days ago) by D_a_X to c/kintelligenz
 
 

Dafür mussten sie vorab das gesamte Gemüse auf dem Feld fotografieren und die KI damit füttern. Denn der Salat wechselt teilweise auch in der Reihe die Kultur. Auf den Bildern haben die Entwickler dann jeweils Nutzpflanzen und Unkräuter markiert, damit die KI den Unterschied lernen kann. Nun sollen die Klingen um die Nutzpflanzen herum hacken – auf Basis der KI-Signale.

4
5
6
 
 

Helfer mit Schattenseiten: Künstliche Intelligenz ist nützlich – auch für dunkle Machenschaften. Wie und warum KI heute am häufigsten missbraucht wird, hat nun eine Google-Studie untersucht und kategorisiert. Demzufolge sind Fakes und Deepfakes mit betrügerischer oder manipulativer Absicht die mit Abstand häufigste Form des KI-Missbrauchs. Aber auch eine direkte Manipulation der KI-Systeme selbst kommt vor. Was aber lässt sich dagegen tun?

Paper: Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data | PDF

7
 
 

Ein besonders kurioses Verhalten zeigte die KI beim Arbeiten unter Zeitdruck. Statt den Code zum Bearbeiten einer Aufgabe zu optimieren, um innerhalb des vorgegebenen Time-outs fertig zu werden, versuchte The AI Scientist, mit einer Änderung seines Codes die Time-out-Periode zu verlängern.

Zugehöriger Blog-Eintrag: The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery

8
 
 

cross-posted from: https://feddit.org/post/1849676

9
10
11
12
 
 

Stimmenimitation eigentlich nicht möglich

Im von OpenAI genannten Beispiel antwortet das KI-Modell auf einen Satz des Anwenders mit einem entschiedenen "Nein!" und fährt mit der Stimme des Red-Teamers fort, der zu Beginn des auch bei Reddit publizierten Audio-Clips zu hören ist. Solche Personen führen für die Firmen kontroverse Tests durch. Dabei sollte ChatGPT laut OpenAI auch mit erweitertem Sprachmodus keine Stimmen anderer Personen imitieren können. Es gibt vier voreingestellte Stimmen, die in Zusammenarbeit mit Synchronsprechern entwickelt wurden.

Dass das KI-Modell bei einer natürlichen Unterhaltung mit der Stimme eines Nutzers antwortet, ist nicht nur unerwartet, sondern auch unheimlich. OpenAI hat eigentlich Sicherheitsvorkehrungen, um diese Fälle zu vermeiden. Es handele sich allerdings um Einzelfälle und das Risiko des Auftretens sei minimal, aber es kann eben doch vorkommen. Das ist auch einer der Gründe, warum der Sprachmodus bisher nicht in der Breite ausgerollt wird. Da das Risiko bei anderen Sprachen als Englisch höher ist, muss OpenAI daran auch noch arbeiten.

13
 
 

Schwimmbäder dürften bald häufiger künstliche Intelligenz (KI) als Unterstützung für Badeaufsichten einsetzen. Necdet Mantar von der Arbeitsgemeinschaft öffentliche Bäder Baden-Württemberg begründete diese Einschätzung mit dem Personalmangel, wenngleich die Technik keine Menschen ersetze.

Sie sorge aber dafür, dass Notfälle beziehungsweise mögliche Ertrinkungsfälle schneller an die Fachleute am Beckenrand gemeldet würden, die somit auch rascher reagieren könnten.

14
4
submitted 1 week ago* (last edited 1 week ago) by marv99 to c/kintelligenz
 
 

Faktoren wie Reibung, Verschleiß und Materialermüdung bringen im Produktionsalltag große wirtschaftliche Verluste. Durch die Komplexität und unterschiedliche Nutzungsgrade von Industrieanlagen ist es schwierig, den Zeitpunkt für Ersatz und Austausch von Komponenten genau vorherzusagen. Dr. Stefanie Hanke, Professorin für Werkstofftechnik an der Fakultät für Ingenieurwissenschaften der Universität Duisburg-Essen, arbeitet an einer KI-basierten Methode, um Materialverschleiß präzise vorhersagen zu können.

15
 
 

geteilt von: https://feddit.org/post/1727041

"Google Deepmind hat einen Roboter entwickelt, der beim Tischtennisspielen mit einem Anfänger mithalten können soll. Im Wettkampf erreichte der von Künstlicher Intelligenz (KI) gesteuerte Roboter die Leistung eines menschlichen Amateurs, erklärt Googles KI-Forschungseinheit. Menschen bräuchten jahrelanges Training, um im Tischtennis ein hohes Leistungsniveau zu erreichen.

Besondere Herausforderungen beim Tischtennis seien die Geschwindigkeit und die Hand-Auge-Koordination, so die Google-Forscher. Mit dem Roboter sei ein Schritt in die Richtung gelungen, dass Roboter bei physischen Aufgaben Geschwindigkeit und Leistung auf menschlichem Niveau erreichen. Der Roboter trat gegen 29 Spieler an, die Fähigkeiten zwischen Anfänger- und Turnierniveau mitbrachten. 13 der Matches gewann der Roboter. Die besten Spieler konnte er nicht besiegen. Dafür gewann er gegen alle Anfänger und mit 55 Prozent mehr als die Hälfte der Spiele gegen fortgeschrittene Spieler. Das zeige eine solide Leistung auf menschlichem Amateur-Niveau, erklärt das Forschungsteam in seinem Paper.

Hybrides Modell ermöglicht schnelle Koordination

Der Roboter ist demnach in der Lage, auch komplexe physische Aufgaben zu bewältigen. Tischtennis erfordert eine blitzschnelle Entscheidung und die Fähigkeit, sich dynamisch an das Spiel und den Gegner anzupassen. Der Roboter tut dies mittels einer Kombination aus Low-Level-Skill-Policies und einem High-Level-Strategie-Entscheider. Dank Ersteren ist der Roboter in der Lage, die spezifischen Tischtennis-Bewegungen wie Vor- oder Rückhandschläge und Aufschläge durchzuführen. Der zweite Teil analysiert das Spiel und passt sich an den Stil des Gegners an: Er entscheidet er darüber, welche der erstgenannten Techniken der Roboter in der jeweiligen Spielsituation einsetzt.

Eine Besonderheit sah das Forschungsteam vor allem im Training der Künstlichen Intelligenz. In einem hybriden Ansatz kombinierte es Verstärkungslernen (Reinforcement Learning) mit Nachahmungslernen (Imitation learning). Ersteres kommt für dynamische Steuerungsaufgaben zum Einsatz, etwa bei Fortbewegungen von Vierbeinern, und wird oft erst in der Simulation durchgeführt. Die Herausforderung ist, dass die Simulation nicht immer der Realität entspricht. Das soll die zweite Lernmethode aufheben: Das Nachahmungslernen orientiert sich an Beispielen, die die gewünschte Aufgabe gut lösen, was dann kopiert wird. Das schließt laut dem Paper des Forschungsteams die Lücke zwischen Simulation und Realität.

Verfolgung der Echtzeit-Spielstatistik

Der Roboter trat nach einem ersten Lernprozess mit wenigen Trainingsdaten aus menschlichen Spielen gegen einen menschlichen Gegner an. Mit jedem echten Match entstanden neue Daten, die wiederum in das Training einflossen. Der Roboter konnte seine eigene Leistung dadurch in mehreren Iterationen steigern. Allerdings war die KI vor allem in der Lage, sich an wechselnde Umweltbedingungen anzupassen – nicht aber an Menschen. Um Letzteres zu ermöglichen, verfolgten die Forscher in Echtzeit die Spielstatistiken, über die Stärken und Schwächen des Gegners und des Roboters deutlich wurden. Darüber konnte der Roboter sich mehreren wechselnden Gegnern besser anpassen.

Schwierigkeiten hat der Roboter bei ausgefeilteren Techniken. So sind besonders hoch oder schnell gespielte Bälle ein Problem. Das Forschungsteam vermutet die Ursache in der Latenz des Systems und fehlenden Daten. Auch das Rückhandspielen fällt dem Roboter eher schwer. Außerdem erkennt das System einen starken Spin des Balls nicht gut."

16
17
4
submitted 2 weeks ago* (last edited 2 weeks ago) by marv99 to c/kintelligenz
 
 

Nvidia soll heimlich riesige Mengen Videos aus verschiedenen Onlinequellen, darunter Youtube und Netflix, für das KI-Training genutzt haben.

Laut den durchgesickerten Slack-Nachrichten und E-Mails, die 404 Media erhielt, wurden Nvidia-Mitarbeiter angewiesen, Millionen von Videos mithilfe automatisierter Tools herunterzuladen. Das Ziel des Unternehmens sei es gewesen, "Trainingsdaten im Wert einer visuellen Erfahrung eines Menschenlebens pro Tag" zu sammeln.

18
19
 
 

Die Open Source-Modelle Llama 3.1 von Meta und Mistral Large 2 vom französischen Startup Mistral können seit letzter Woche mit OpenAI & Co. mithalten. Was bedeuten die freien Modelle für die KI-Landschaft? Wer profitiert? Und warum könnte das deutsche KI-Startup Aleph Alpha sich eher weniger über die Neuigkeit freuen?

Über die Hosts:
Gregor Schmalzried ist freier Tech-Journalist und Berater, er arbeitet u.a. für den Bayerischen Rundfunk und Brand Eins. Marie Kilg ist Chief AI Officer bei der Deutschen Welle. Zuvor war sie Produkt-Managerin bei Amazon Alexa.

20
3
submitted 3 weeks ago* (last edited 3 weeks ago) by marv99 to c/kintelligenz
 
 

Künstliche Intelligenz gilt als Zukunftstechnologie, doch Verbraucher reagieren skeptisch. Eine neue Studie zeigt: Die explizite Erwähnung von KI in Produktbeschreibungen senkt die Kaufbereitschaft deutlich. Was steckt hinter diesem überraschenden Trend?

Artikel als PDF

Washington State University, Pressemitteilung: Using the term ‘artificial intelligence’ in product descriptions reduces purchase intentions

Paper: unfrei

21
 
 

Zerstörerischer Kreislauf: Immer mehr Internet-Inhalte stammen von künstlichen Intelligenzen und bilden damit das Trainingsmaterial der nächsten KI-Generationen. Doch das könnte fatale Folgen haben, wie nun ein Experiment aufdeckt: Schon nach wenigen KI-Generationen führt dieser „Zirkelschluss“ zum Kollaps von Sprachmodellen. Die Resultate werden immer schlechter, bis die KI-Systeme schließlich nur noch Unsinn ausgeben, wie Forscher in „Nature“ berichten. Wie aber ließe sich das verhindern?

Paper: AI models collapse when trained on recursively generated data | PDF

Älterer Post zum Thema:

22
23
24
 
 

Meta und Mark Zuckerberg selbst sehen in der Veröffentlichung der KI-Modelle als Open-Source auch die besten Chancen für die Weiterentwicklung und die Sicherheit. Dabei vergleicht Zuckerberg die Entwicklungen mit denen von Linux. Er möchte seine Modelle zum "Industrie-Standard" machen, also zu den am meisten genutzten und fortschrittlichsten KI-Modellen. In Open-Source sieht er die Chance, dass jeder KI-Modelle nach seinen Bedürfnissen entwickeln kann. Zudem würden viele Unternehmen und Organisationen nicht von einem Anbieter abhängig sein wollen, geschweige denn, ihre Daten über eine API in die Cloud senden. Vorteil ist laut Blogbeitrag von Zuckerberg auch, dass Entwickler Llama 3.1 405B auf ihrer eigenen Infrastruktur laufen lassen können – bei etwa 50 Prozent der Kosten der Nutzung von GPT-4o.

Open-Source erlaube es außerdem, fortschrittlicher zu sein, meint Zuckerberg. Es werde ein ganzes Ökosystem rund um die Modelle entstehen. Und weil es nicht die Haupteinnahmequelle Metas ist, könne man sich erlauben, die Modelle frei zur Verfügung zu stellen.

25
view more: next ›