HaysWorld
Archiv

Hier finden Sie alle Ausgaben der HaysWorld seit Oktober 2009. Sie können jeweils entweder die Gesamtausgabe oder einzelne Artikel als PDF herunterladen.

Zum PDF-Archiv

HaysWorld 01/18
ENTSCHEIDEN

Zur Online-Ausgabe

HaysWorld 02/17
MUT

Zur Online-Ausgabe

HaysWorld 01/17
EINFACHHEIT

Zur Online-Ausgabe

HaysWorld 02/16
KREISLAUF

Zur Online-Ausgabe

HaysWorld 01/16
STRUKTUREN

Zur Online-Ausgabe

HaysWorld 02/15
LEISTUNG

Zur Online-Ausgabe

HaysWorld 01/15
FÜHRUNG

Zur Online-Ausgabe

HaysWorld 02/14
VERTRAUEN

Zur Online-Ausgabe

HaysWorld 01/14
TEAMS

Zur Online-Ausgabe

HaysWorld 01/13
Intuition

Zur Online-Ausgabe

HaysWorld 02/13
Bewegung

Zur Online-Ausgabe

HaysWorld 01/12
Spielen

Zur Online-Ausgabe

HaysWorld 02/12
Intelligenz

Zur Online-Ausgabe

KÜNSTLICHE INTELLIGENZ VERSUCHT SICH IN EMOTIONEN

IMMER SCHÖN
LÄCHELN

Ob in der Robotik, der Erforschung der Tiefsee, beim autonomen Autofahren oder in der Medizintechnik: Immer mehr Anwendungsfälle aus dem Forschungsfeld der künstlichen Intelligenz (KI) schwappen in unser Leben. Nun wollen Forscher den Systemen menschliche Züge verleihen.

Die Mundwinkel zeigen nach oben. Ein Lächeln? Oder hatten sich kurz vorher die Augenbrauen des Probanden gekräuselt? Doch Schmerz? Professor Ute Schmid, ihr Team sowie die Schmerzforscher Professor Stefan Lautenbacher und Dr. Miriam Kunz von der Universität Bamberg sehen bei ihren Versuchen ganz genau hin. Sie studieren menschliche Empfindungen. Aus welcher Regung im Gesicht lässt sich schließen, dass es der Person gut geht, wann plagen sie Schmerzen, wann ist sie entspannt und wann aufgeregt?

Mimik lesen und Emotionen erkennen. Die Bamberger Forscher arbeiten in einem der momentan spannendsten Bereiche der künstlichen Intelligenz. Ihr Arbeiten setzt dort an, wo Verhaltensmuster, Strukturen und Algorithmen – kurz: Mathematik und Ingenieurwissenschaften – an Grenzen stoßen: kognitive künstliche Intelligenz. „Bei kognitiven Systemen befassen wir uns mit dem Thema Lernen“, erklärt die Wissenschaftlerin. Letztlich geht es darum, menschliche Lernprozesse in Computerprogrammen nachzubilden. Maschinen beizubringen, Emotionen zu erkennen, ist dabei die Kür, denn normalerweise werden Gefühle aus dem Kontext und durch eine Reihe von Impulsen erkannt. „Wie Menschen denken und verstehen, lässt sich nicht auf eine einfache Formel bringen – ebenso wenig das Deuten ihrer Emotionen“, führt Schmid aus. Man könne zwar ein Programm nachbilden, das das Input-Output-Verhalten eines Menschen simuliere. „Aber man weiß nicht, ob es auf den gleichen Prinzipien beruht wie die menschliche Informationsverarbeitung.“

Genau hier greifen Schmids Arbeiten: Füttert man einen Computer beispielsweise mit Bildern oder Videos von Gesichtern, die Schmerz oder keinen Schmerz zeigen, so kann er daraus mithilfe von Ansätzen des Klassifikationslernens allgemeine Regeln erwerben. „Damit ist die Maschine befähigt zu entscheiden, ob die Person gerade Schmerz empfindet oder nicht.“ Potenzielle Anwendungsgebiete sind derzeit das Gesundheits- und Pflegewesen. „Ein Demenzerkrankter kann seine Schmerzen häufig nicht artikulieren, obwohl er nach neuesten Erkenntnissen die gleichen Empfindungen hat wie ein gesunder Mensch“, führt die Professorin aus.

Durch KI-Systeme zur Patientenbetreuung oder Diagnoseunterstützung könne die Qualität der Patientenversorgung, etwa die Schmerztherapie, deutlich verbessert werden. Doch dazu müssen die Geräte erst einmal lernen, Schmerzen in einem menschlichen Gesicht zu erkennen. Und das mit hoher Treffergenauigkeit. Bei rund 40 Muskeln, die für „Gefühlsmomente“ allein im menschlichen Gesicht aktiv sein können, ist das eine Herausforderung. Die Wissenschaftlerin steckt das Ziel: „Wir möchten, dass unsere Programme Aussagen von sehr hoher Güte zu annähernd 100 Prozent erreichen“, sonst sind sie in der Praxis ethisch nicht vertretbar. Doch davon sind die Wissenschaftler noch entfernt.

Spitzenleistungen jenseits menschlicher Fähigkeiten

KI-Hand
Kühe melken oder einen kranken Menschen streicheln – die Zukunft liegt vielleicht in Händen wie diesen.

Spitzenleistungen, die zum Teil weit jenseits der menschlichen Fähigkeiten liegen, vollbringen KI-Systeme reihenweise in Einzeldisziplinen, erklärt Professor Wolfgang Wahlster, Leiter Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI). Beispielsweise seien Hochleistungskameras in der Lage, Gigapixel an Bildinformationen aufzunehmen, und anhand von Mustern erkennen und interpretieren sie, was auf dem Bild zu sehen ist. Häufig finden sich solche Anwendungen in der Medizintechnik oder auf Prüfständen. Auch in der Sprach- und Geräuscherkennung sind Maschinen heute zum Teil deutlich besser als der Mensch. „Versuchen Sie mal auf einer Cocktailparty alle einzelnen Stimmen der Gäste herauszufiltern“, sagt Wahlster. „KI kann das besser als der Mensch.“

Ein anderes Einsatzfeld ist die Robotik. Ein computergesteuerter Operationsroboter ist dem Chirurgen in puncto Präzision überlegen – und das ohne Pause. In der Feinmanipulation etwa von Atomen, einer Tätigkeit, die ein Mensch nicht ausführen kann, findet man ebenfalls KI-gestützte Systeme. Auch überall dort, wo der Mensch aus Gefahrengründen kaum oder gar nicht tätig werden kann, etwa bei Expeditionen in der Tiefsee, in Gefahrenbereichen in Atomkraftwerken oder beim Katastropheneinsatz werden Roboter genutzt.

Seit Anfang August dieses Jahres sendet nun die Raumsonde „Curiosity“ Daten vom knapp 228 Millionen Kilometer entfernten Mars. Mit 17 Kameras und einem kompletten geochemischen Labor ausgestattet, sucht das rund 900 Kilogramm schwere Gefährt im Marsgestein nach Voraussetzungen für Leben. Einen Teil der Experimente managt der Rover dabei völlig eigenständig, das Wissen dazu hat man ihm in seiner Software eingepflanzt – Updates bekommt er regelmäßig gefunkt. Und: Er lernt aus seinen eigenen Erfahrungen.

Konkurrenz durch Kollege Computer bekommt der Mensch auch bei einer seiner Lieblingsbeschäftigungen: dem Autofahren. Um künftig die Zahl der Unfälle weiter zu senken, testet Google seit rund zwei Jahren IT-gesteuerte Autos. Rund 500.000 unfallfreie Kilometer soll das mit Computern, Sensoren, Lasertechnik und Kameras vollbepackte Fahrzeug bereits zurückgelegt haben. Immer online verbunden mit der Rechenpower des kalifornischen Suchmaschinen spezialisten, um optimale Strecken zu nutzen und Staus selbsttätig zu umfahren. Gefragt nach den Gründen, warum Google ins Automobilgeschäft einsteigt, gab dessenEx-Geschäftsführer Erich Schmidt einst vollmundig zu Protokoll: „In Zukunft geht es darum, Computer Dinge erledigen zu lassen, die Menschen nicht besonders gut können.“

Sind KI-Systeme Fachidioten?

Welche Tätigkeiten das letztlich sind, lässt sich nicht abschließend beantworten. Doch eines gilt auch rund 60 Jahre nach der Erfindung des Begriffs künstliche Intelligenz: „Alles, was wir als Alltagsintelligenz bezeichnen, ist für KI-Systeme eine Herausforderung“, erklärt DFKI-Mann Wahlster. Die Koordination aller Sinne und schnelle Reaktionen auf äußere Einflüsse und Veränderungen seien nicht gerade eine Stärke von KI-Anwendungen. Dazu gehöre, auf einer belebten Einkaufsstraße Passanten auszuweichen oder auch Rad zu fahren. Schon KI-Pionier John McCarthy hat einmal treffend formuliert: „Die Alltagsintelligenz, wo schnelle Entscheidungen gefordert sind, ist schwieriger mit KI nachzubilden als Expertenintelligenz.“

Leiter des Kompetenzzentrums Case-Based Reasoning am Deutschen Forschungszentrum für Künstliche Intelligenz in Kaiserslautern und verantwortlich für den Bereich Intelligente Informationssysteme am Institut für Informatik der Universität Hildesheim, ist das zu pauschal. „Wenn wir uns die Mühe machen, die Dinge des täglichen Lebens als einen eingegrenzten Themenbereich zu beschreiben, dann kann ein wissensbasiertes System dies auch.“ Definiere man die Dinge des täglichen Lebens aber so, dass man nicht genau wisse, was auf einen zukomme, dann könne das KI-System mit diesem nicht vorhandenen Wissen natürlich auch keine Aufgabe lösen. „Es ist also eine notwendige Voraussetzung“, erklärt Althoff, „dass Wissen und Erfahrung für ein solches System zur Verfügung gestellt werden.“

Die Mensch-Maschine-Symbiose

Ein Forschungsbereich, bei dem KI-Systeme im direkten Kontakt mit Menschen interagieren und Wissen erlangen, ist die Fabrikation der Zukunft. Künftig, so der Plan der DFKI-Spezialisten, arbeiten humanoide Roboter mit Menschen im Team zusammen. Dabei kommen nicht klassische Handhabungsroboter zum Einsatz, sondern Leichtbauroboter, die ein Mensch auch mal zur Seite schubsen kann und die aus der Kooperation mit dem Menschen lernen. Im Fachjargon sprechen die Experten von der Mensch-Maschine-Symbiose.

Wenn man einen Roboter allerdings „aus dem Käfig lässt“, muss er „verstehen“, was der Kunde oder sein Partner von ihm will – in der KI wird das Aktivitäts- und Planerkennung genannt. Man muss dem Roboter gewissermaßen das wechselseitige Verstehen und Erkennen beibringen, damit er vom Zusehen lernt und dann im richtigen Augenblick dem Menschen zur Hand geht.

Die Schwierigkeit dabei ist, dass die Systeme mit unsicheren Zuständen umgehen können müssen. Dazu braucht man zunächst zahlreiche Sensoren (multimodal), um viele Zustände aufnehmen und Fehler ausgleichen zu können. „Uns ist aber auch klar, dass die Mensch-Maschine-Symbiose ohne emotionale Intelligenz nicht funktioniert“, resümiert Wahlster. Die Bamberger Professorin Ute Schmid fühlt sich durch die Aussagen Wahlsters jedenfalls ermutigt. Ihre hochgezogenen Mundwinkel und das Glänzen in den Augen sind eindeutig: ein Lächeln.

Artikel als PDF downloaden