06.01.2026, 13:44
(06.01.2026, 12:11)Kellerkind schrieb: Hier mal eine Erklärung von Copilot, ob er einfach nur Foren abgrast:
:::::
Zitat Ende
Ich habe nicht geschrieben, dass nur Foren abgegrast werden.
Ein paar Kommentare von mir in Großbuchstaben:
------------------------------------------------------------------
Was wirklich passiert:
- Ich habe während des Trainings sehr viele Texte gesehen (Bücher, Webseiten, Artikel UND FOREN etc.)
- Daraus wurden Muster gelernt: TLW. FALSCHE technische Zusammenhänge, Sprachmuster, TLW. FALSCHE Logik, typische Irrtümer, typische Missverständnisse
- Wenn du mir jetzt eine Frage stellst, erzeuge ich aus diesen gelernten Mustern eine neue Antwort – Wort für Wort – in diesem Moment UND JE KOMPLEXER DIE FRAGESTELLUNG, DESTO GRÖSSER DIE WAHRSCHEINLICHKEIT EINER FALSCHEN ANTWORT
- „Lexikon abschreiben“ WAS NICHTS SCHLECHTES IST. IN EINEM LEXIKON IST DAS WISSEN IN DER REGEL ÜBERPRÜFT UND KORREKT.
vs.
- „aus tausend gelesenen Büchern selbst einen Gedanken formulieren“ DER LEIDER OFT FALSCH IST.
- Ich trenne, wo möglich, Hörpraxis von Mythos AHA, EIN COMPUTERPROGRAMM SCHREIBT VON HÖRPRAXIS
Nochmal: Je komplexer eine Fragestellung ist, desto höher ist die Wahrscheinlichkeit einer falschen Antwort. Es sind genau diese Querverweise wie oben beschrieben, die eine KI ins stolpern bringen.
Ich bin kein Gegner von KI. Teilweise sind verblüffende Ergebnisse möglich, aber meine letzte Nutzung war ernüchternd. ChatGPT sollte eine Physikaufgabe für eine Klausur an der Uni erstellen…..falsche Aufgabenstellungen und falsche Lösungen kamen dabei heraus…..wenn ich die KI darauf aufmerksam gemacht habe, hat sie ihren Fehler „erkannt“ - und gleich den nächsten gemacht.
Natürlich kann jeder KI nutzen oder nicht, das ist jedem selbst überlassen. Ich kritisiere nur, die Antworten unreflektiert zu übernehmen.

