Blog

DigitalProf. Ute Schmid

Prof. Ute Schmid

Head of Cognitive Systems Group an der Universität Bamberg

Das Forschungsgebiet Künstliche Intelligenz existiert bereits seit 1956. Der Informatikpionier John McCarthy hat den Begriff »Artificial Intelligence« eingeführt, basierend auf der Annahme, dass viele Aspekte menschlicher Intelligenz durch Algorithmen formalisierbar und entsprechend als Computerprogramme simulierbar sind. Die deutsche und europäische KI-Forschung wurde insbesondere vom Informatik-Professor Wolfgang Bibel begründet, der die Bezeichung »Intellektik« gegenüber »Künstlicher Intelligenz« bevorzugt und damit die Erforschung von Geist und Psyche als komputationales Phänomen als zentrale Zielsetzung in den Mittelpunkt stellte. KI-Forschung ist wie kaum ein anderes Gebiet geprägt von Phasen großer Euphorie, gefolgt von Phasen großer Enttäuschung sogenannten KI-Wintern. Im Jahr 2000 begann der »Winter ohne Ende«, der wie wir wissen durch die beeindruckenden Erfolge tiefer neuronaler Netze (deep learning) dann doch ein Ende fand.

Seit mehr als zehn Jahren befinden wir uns nun in einer Hochphase mit immer neuen beeindruckenden Entwicklungen. Zunächst stand vor allem die Bildklassifikation mit CNNs (convolutional neural networks) im Mittelpunkt der Aufmerksamkeit. Erstmals war es möglich, dass direkt Rohdaten als Eingabe in neuronale Netze genutzt werden konnten, was insbesondere für bildbasierte Diagnostik in der Medizin, Fußgängererkennung fürs autonome Fahren sowie bildbasierte Qualitätskontrolle in der Industrie hohe Relevanz hat. Allerdings wurde bald deutlich, dass hohe Anforderungen an Menge und Qualität der Daten bestehen, und dass Training und Anwendung solcher Modelle nicht ohne den Menschen funktionieren. Zum Training ist es notwendig, dass die Bilder mit den korrekten Ausgaben annotiert werden. Dies wird insbesondere von schlecht bezahlten Clickworkern erledigt. Zum anderen ist es fast in allen Bereichen weder sinnvoll noch möglich, dass KI-Systeme autonom arbeiten. Maschinell gelernte Modelle sind nie fehlerfrei. Entsprechend wird zunehmend an Ansätzen des erklärenden interaktiven maschinellen Lernens geforscht, die es ermöglichen, dass Menschen KI-Modelle nachvollziehen und korrigieren können. Auch beim neuen Hype den generativen Ansätzen wie dem auf einem großen Sprachmodell aufbauenden Dialogsystem ChatGPT wird immer deutlicher, wie wichtig es ist, dass Menschen die Ausgaben nicht unhinterfragt lassen und wie wichtig menschliche Kontrolle ist, wenn es darum geht, den Wahrheitsgehalt von Aussagen zu prüfen.

Erfreulich an der aktuellen Debatte um ChatGPT ist, dass ein breiter Diskurs zum Thema Bildung ausgelöst wurde und wir uns fragen, welche menschlichen Kompetenzen zukünftig in Schulen und Hochschulen vermittelt werden sollen. Die Frage, ob und wenn ja, was synthetisch generierte Texte oder Bilder von menschlicher Kreativität unterscheidet, lässt uns neu darüber nachdenken, was Menschsein ausmacht. Zumindest bislang sind generierte Texte eher auf dem Niveau von hausgemachten Gedichten zu einem Familienfest, und weit entfernt von dem, was menschliche kreative Leistungen ausmacht.
Wie Nick Cave im Januar im Musikmagazin Rolling Stone feststellte: »This song is bullshit, a grotesque mockery of what it is to be human.«

Back To Top

human ist das Leitmedium für strategische Entscheider:innen und alle, die mit KI arbeiten und leben werden. Wir stellen den Menschen in den Mittelpunkt. Für eine lebenswerte Zukunft aller.

Folgen Sie unserer Einladung zum Dialog – werden Sie Teil einer spannenden Reise…

Social