Das Problem ist: #chatgpt3 imitiert so perfekt, dass Lösungen für bestimmte Aufgaben so aussehen, als sei ein Problemverständnis vorhanden: dabei recherchiert es offenbar keine einschlägige Literatur, sondern erfindet Titel aus Namen(sbestandteilen) von echten FachkollegInnen 1/n
und typischen thematisch passenden Phrasen, Medien usw. Das System kann auch keine juristische Fälle lösen, aber dogmatische Schnipsel effizient kombinieren. Und es kann auch keine Grundschuldidaktik, sondern baut aus bekannten Schülertextaufgaben einfach neue Aufgabentexte. 2/
Die Illusion einer Problemlösungsfähigkeit entsteht also vor allem dort, wo Weltwissen und Sachzusammenhänge eng an Sprachwissen(sstrukturen) gekoppelt sind. Tatsächlich beruhigt mich das auf der einen Seite - denn es bedeutet, dass wir von künstlicher "Intelligenz" nach 3/
wie vor weit entfernt sind.Beunruhigt bleibe ich aber auf der anderen Seite, weil Illusion/Imitation & reale, interessengeleitete Kommunikation damit teilweise kaum zu unterscheiden ist. Umso wichtiger: a) Open Source-Pflicht für solche Systeme, b) Aufbau digitaler Kompetenz.4/4
• • •
Missing some Tweet in this thread? You can try to
force a refresh
#chatgpt3 hat mir gerade in unter 5 min eine komplette Hausarbeit zum Thema "Inklusives Wir in der Politischen Kommunikation" geschrieben, mit Inhaltsverzeichnis und geeigneten Referenzen. Von einer mittelguten realen Hausarbeit nicht zu unterscheiden.
In dieser Qualität hat die Technologie - an die sich sicherlich jetzt ziemlich schnell eine Menge Entwicklungsteams dranhängen - das Potential, zahlreiche Arbeitsbereiche zu verändern... Und wie immer bei neuer Technologie gibt es sowohl utopische als auch dystopische Szenarien.
Da hier mehrere nach den Screenshots gefragt hatten - interessanterweise kann ich das gestrige Ergebnis nicht identisch reproduzieren. Tatsächlich wird bei erneutem Versuch sogar das "inklusive Wir" in der PoliKom mit "inklusiver Sprache" verwechselt.