Zitat von Falcone im Beitrag #1559Serpel, mit KI muss man in solchen Fällen wirklich vorsichtig sein.
Falls es noch nicht aufgefallen sein sollte: Ich finde KI zwar extrem praktisch (wenn sie denn mal zuverlässig funktioniert), aber ebenso gefährlich für ihre Auswirkungen auf die Gesellschaft.
Und wie du schreibst: KI liefert oftmals völligen Käse, widerspricht sich andauernd, wenn man nachbohrt und bedankt sich am Ende für Insiderwissen, das sie durch den intensiven Austausch weiter angehäuft habe.
Erst gestern hatte ich so einen unfruchtbaren Dialog, bei dem nicht ich, sondern die KI dazu gelernt hat:
S1:2.png - Bild entfernt (keine Rechte)
S2:2.png - Bild entfernt (keine Rechte)
Bei so viel Unterwürfigkeit wird einem ja schlecht!
Ich mag KIs, insoweit sie auf recht spezielle Fragen (wie z.B. den taxonomischen Status von Cacatua Transfreta, der musiktheoretischen Bewertung des "Tannhäuser-Akkords" oder dergleichen Exotenfachwissen) immer mal wieder gute Treffer hinsichtlich der Quellen haben, von denen aus man sich dann weiterhangeln kann. An dem von Serpel geposteten Dialog finde ich interessant, dass das Programm auf seine eigenen Schwächen hinweist (es ist nunmal einfach nur ein LMM) - aber erst auf Nachfrage.
Das Programm gibt mächtig mit seinem Wissen an, der Benutzer kommt ihm im Grunde mit "Du hast ja keine Ahnung, Du Doof", und dann knickt es ein. Klasse!
Anlässlich meines Geburtstag frotzelte ein Freund, dass meine Vorliebe für Citroën DS sicher darin begründet sei, dass wir gleich alt sind. Daraufhin wurde eine Anfrage an ChatGPT und an GoogleKI/Gemini gestartet. Anfangs gaben beide die Auskunft, dass die Produktion ab 7. Oktober 55 begann, bei leicht suggestiver Nachfrage knickte Chat ein und verlegte den Produktionsbeginn auf meinen Geburtstag. Gemini hingegen bleib bei den Fakten.
Sobald KI ein eigenes Bewustsein entwickelt kanns gefährlich werden. Das haben schon Kinofilme mit Arnold gezeigt. Damals empfand ich das als Utopie, jetzt seh ich es ein wenig kritischer. Denn es gibt seriöse Wissenschaftler und auch solche die es nicht sind.
Zitat von onkeltom im Beitrag #1569Sobald KI ein eigenes Bewustsein entwickelt
Da ist bei den momentanen KI Modellen nicht mit zu rechnen, von einem "Bewusstsein" sind die noch weit entfernt und auch was die da fabrizieren hat mit Intelligenz wenig zu tun, auch wenn es sich so schimpft.
-- Blog Ich springe hoch, ich springe weit, warum auch nicht, ich hab' ja Zeit. Frei nach H.E.
Ein LLM ist eine Software die Texte baut, quasi Wort für Wort. Dabei wird einem Text jeweils das nächste Wort angehängt, das in Abhängigkeit der vorausgegangenen Wörter, laut dem Training (jede Menge eingelesene Texte), am besten passt. Das ist der Grund warum diese LLMs so gut Sätze bilden können.. aber Fakten sind eben nicht Teil der Rechnung. Wenn das Sprachmodell also Sätze bildet, die sich so lesen als ob es Fakten enthält, dann handelt es sich um Wörter die stochastisch am besten passen. "KI" heißt es dann, wenn viele Modelle und andere Komponenten auf klevere Weise miteinander verknüpft werden. Wenn diese KI also z.B. als Komponente eine Datenbank mit tatsächlichen Fakten beinhaltet und es diese kontextabhängig korrekt einbindet, bekommen wir Sätze die tatsächlich Fakten beinhalten (könnten).. blöderweise wissen wir als Konsumenten nicht ob der Satz jetzt Fakten beinhaltet oder Wörter/Werte die sich aus der Funktion des LLM ergeben haben(="halluziniert" wurden).
..deshalb würde ich technische Daten lieber nicht aus KI generierten Texten entnehmen. Schlaubi Schumpf, Ende.