Technikfolgen: Systemische und existenzielle Risiken von KI
Auf Künstlicher Intelligenz (KI) ruhen große Hoffnungen, ihre rasante Entwicklung weckt aber auch Befürchtungen: Können KI-Anwendungen etwa das Verbreiten von Desinformation weiter erleichtern und demokratische Prozesse grundlegend stören? Können sie sich der menschlichen Kontrolle sogar ganz entziehen und zur Bedrohung werden? Diese Fragen zu untersuchen und tragfähige Bewertungs- und Handlungsansätze zu entwickeln, ist Ziel des Projekts „Systemische und existenzielle Risiken der KI“ am Karlsruher Institut für Technologie (KIT).
Systemzusammenbruch und Kontrollverlust vermeiden
„Systemische Risiken zeichnen sich durch komplexe Wechselwirkungen oder Kipppunkte aus, die zu Fehlfunktionen oder zum Zusammenbruch von Systemen führen, wie bei der Finanz- oder Klimakrise“, sagt Dr. Carsten Orwat vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT, wo das Projekt angesiedelt ist. Im ersten Teilprojekt geht er Hinweisen auf derartige Risiken bei KI-Anwendungen nach und analysiert Ursachen, spezifische Wirkungsweisen und Schadensformen. Auf dieser Basis leiten die Forschenden geeignete Regulierungsformen ab.
Handlungsempfehlungen, die dabei helfen, mögliche Risiken frühzeitig zu berücksichtigen, sind auch das Ziel des zweiten Teilprojekts. „Wir setzen uns mit der Befürchtung auseinander, dass KI-Anwendungen entwickelt werden könnten, die sich der menschlichen Kontrolle vollständig entziehen und Ziele verfolgen, die mit menschlichen Interessen in Konflikt stehen und sogar den Fortbestand der menschlichen Zivilisation bedrohen“, sagt er. Das Bundesministerium für Bildung und Forschung fördert beide Teilprojekte für zwei Jahre.
jm/mle, 23.04.2024