Zitat von Kölsch im Beitrag #1574Ein LLM ist eine Software die Texte baut, quasi Wort für Wort. Dabei wird einem Text jeweils das nächste Wort angehängt, das in Abhängigkeit der vorausgegangenen Wörter, laut dem Training (jede Menge eingelesene Texte), am besten passt. Das ist der Grund warum diese LLMs so gut Sätze bilden können.. aber Fakten sind eben nicht Teil der Rechnung. Wenn das Sprachmodell also Sätze bildet, die sich so lesen als ob es Fakten enthält, dann handelt es sich um Wörter die stochastisch am besten passen. "KI" heißt es dann, wenn viele Modelle und andere Komponenten auf klevere Weise miteinander verknüpft werden. Wenn diese KI also z.B. als Komponente eine Datenbank mit tatsächlichen Fakten beinhaltet und es diese kontextabhängig korrekt einbindet, bekommen wir Sätze die tatsächlich Fakten beinhalten (könnten).. blöderweise wissen wir als Konsumenten nicht ob der Satz jetzt Fakten beinhaltet oder Wörter/Werte die sich aus der Funktion des LLM ergeben haben(="halluziniert" wurden).
..deshalb würde ich technische Daten lieber nicht aus KI generierten Texten entnehmen. Schlaubi Schumpf, Ende.
Danke für den Beitrag. Das erste mal, das ich das verständlich erklärt bekomme.