this post was submitted on 19 Jun 2023
0 points (NaN% liked)
Deutschland
6712 readers
1 users here now
Sammelbecken für deutsche Kartoffeln und ihre Geschichten über Deutschland.
Nicht zu verwechseln mit !dach und !chad.
Regeln
- Seid nett zueinander.
- Schreibt hier Beiträge, die ganz Deutschland betreffen, nicht nur einen kleinen Teil
- Sinnlose Provokationen ohne Inhalt werden gelöscht
- zusätzlich: alle Regeln, die ihr auf Feddit.de in der Sidebar lesen könnt.
Bundesländer:
founded 3 years ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Im Gegensatz zu Blockchain ist KI aber gekommen um zu bleiben. Ist ja nicht umsonst Thema in der Informatik seit es die Informatik gibt. Die aktuelle Frage ist nur, welche LLM-Anwendungen tatsächlich sinnvoll sind und in der Praxis Vorteile bringen.
Die Technologie Blockchain ist auch gekommen um zu bleiben, nur eben 99% der derzeitigen Blockchain-Projekte nicht.
LLMs tatsächlich für Sprache einsetzen ist schon cool. Also zusammenfassen, umformulieren, vlt sogar passenden Puffertext erzeugen.
Auch Modelle wie Stable Diffusion sind super, wenn man irgendwelche unverfänglichen Aufhängerbilder o.ä. braucht.
CoPilot funktioniert als Assistent beim Programmieren auch schon erschreckend gut. Spart stellenweise eine Menge Tipparbeit.
Sind halt alles Werkzeuge. Eigenständig sinnvoll ist davon nichts.
Stimmt zwar an sich schon, aber im Grunde ändert sich die Bedeutung von "KI" alle paar Jahre, bzw. wofür es als Buzzword wirklich steht.
In den 50ern war die böse KI, die Leuten ihre Arbeitsplätze weggenommen hat, das, was wir heute als "Taschenrechner" bezeichnen würden (nur, dass die damals in keine Tasche gepasst hätten).
Und vor ein paar Jahren war mit "KI" i.d.R. ein Machine Learning Modell gemeint. Jetzt ist eben KI = LLM, und in ein paar Jahren hat "KI" dann vielleicht Sensoren oder ein Gesicht.
Das ist denke ich so nicht ganz richtig.
In den 50ern standen such-basierte ansätze im vordergrund die automatisiert Spiele wie Schach spielen, mathematische Theoreme beweisen, oder allgemein logische schlüsse ziehen konnten. Mein taschenrechner kann das nicht. (Neuronale netze gab es auch schon, wenn auch nicht ganz in der heutigen form.)
Als sich das als zu unflexibel für reale anwendungsfälle erwies wurde im bereich probabilistische systeme gearbeitet, welche mit unsicherheit umgehen konnten. Aber auch hier kannte man die regeln nach denen das system arbeitet noch.
In den 90ern, als es durch mehr EDV auch größere datensätze gab, haben sich in eineigen anwendungsfällen machine learning systeme durchgesetzt, welche die regeln anhand von daten selbst lernen.
Seit den 10ern hat sich gezeigt, dass sich machine learning ansätze, insbesondere neuronale netze, mit mehr daten und rechenleistung scheinbar beliebig skallieren lassen. Und das ist im wesentlichen das, was seit 11 jahren passiert.
LLM sind nur skalierte machine learning modelle für sprache. Die grundlagen kommen aber aus den 50/60ern.
Dagegen kann ich nicht wirklich argumentieren, weil mein Kommentar im Kern den Inhalt dieses (gut recherchierten) Vortrags widerspiegelt: https://tube.bawü.social/w/1c464828-a83e-4ff9-b264-197ba7968204
Ich könnte mir aber vorstellen, dass es einfach einen Unterschied zwischen Forschungsthemen und öffentlicher Wahrnehmung gab. Also vielleicht war es tatsächlich oft die selbe, zu Grunde liegende Technologie, die aber immer wieder zur Lösung neuer Probleme eingesetzt werden konnte.
Ja, das stimmt wohl.