Statt perfekter Information gibt es unzählige, unbekannte Möglichkeiten. Die Gründe dafür fangen bei fehlenden Informationen an und reichen bis zur gezielten Täuschung.
Nehmen wir zum Beispiel ein selbstfahrendes Auto. Das Ziel festzulegen, ist kein Problem: Fahre von A nach B, und das effizient, sicher und gesetzeskonform. Aber was geschieht, wenn auf den Straßen mehr los ist, als erwartet, beispielsweise aufgrund eines Unfalls oder durch einen Wetterumschwung? Oder es ereignen sich unvorhersehbare Dinge, wie ein Ball, der auf die Straße springt, oder ein Stück Abfall, das genau auf die Kamera des Autos fliegt?
Ein selbstfahrendes Auto greift auf eine Vielzahl an Sensoren zurück, einschließlich sonarähnlichen Sensoren und Kameras, um herauszufinden, wo es sich befindet und wovon es umgeben ist. Diese Messeinrichtungen arbeiten nie perfekt, da die Sensordaten immer ein paar Fehler und Ungenauigkeiten – das sogenannte Rauschen − enthalten. Es ist deshalb nicht ungewöhnlich, dass ein Sensor den Straßenverlauf nach links anzeigt, während ein anderer genau die entgegengesetzte Richtung angibt. Dies muss gelöst werden, ohne den Wagen beim kleinsten Rauschen anzuhalten.
Einer der Gründe, weshalb moderne KI-Methoden bei realen Problemen tatsächlich funktionieren – im Gegensatz zu den meisten, guten alten Methoden der 1960er bis 1980er Jahre –, ist, dass sie in der Lage sind, mit Unsicherheit umzugehen.
Hinweis
Die Geschichte von KI ist gekennzeichnet von unterschiedlichen, sich widersprechenden Paradigmen zum Umgang mit unsicheren und ungenauen Informationen. Nehmen wir einmal Fuzzylogik (Unschärfelogik). Fuzzylogik wurde eine Zeit lang als bester Ansatz zum Umgang mit unsicheren und ungenauen Informationen gehandelt und kam bei vielen Kundenanwendungen zum Einsatz. Zu nennen wären zum Beispiel Waschmaschinen, die den Verschmutzungsgrad der Wäsche feststellen (nicht nur „schmutzig“ oder „sauber“, sondern auch die verschiedenen Abstufungen) und das dazu jeweils passende Programm auswählen konnten.
Die Erfahrung hat jedoch gezeigt, dass Wahrscheinlichkeiten der beste Ansatz zur Entscheidungsfindung bei Unsicherheit sind. So basieren heutzutage nahezu alle KI-Anwendungen zumindest bis zu einem gewissen Grad auf Wahrscheinlichkeiten.
Am bekanntesten sind Anwendungen von Wahrscheinlichkeiten in Spielen: Wie stehen die Chancen, beim Poker drei gleiche Karten zu bekommen? (Etwa 1 : 47.) Wie wahrscheinlich ist es, im Lotto zu gewinnen? (sehr unwahrscheinlich.) Und so weiter. Viel wichtiger aber ist, dass Wahrscheinlichkeiten auch zur Quantifizierung und zum Vergleich von Risiken im Alltag verwendet werden können: Wie wahrscheinlich ist es, dass du einen Autounfall verursachst, wenn du zu schnell fährst? Wie wahrscheinlich ist es, dass die Zinsen auf deine Hypothek innerhalb der nächsten fünf Jahre um fünf Prozentpunkte steigen? Oder wie wahrscheinlich ist es, dass KI in Zukunft bestimmte Aufgaben wie die Diagnose von Knochenbrüchen auf Röntgenbildern oder das Kellnern in einem Restaurant automatisieren wird?
Hinweis
Der wichtigste Aspekt von Wahrscheinlichkeiten ist nicht etwa ihre Berechnung. Es ist vielmehr die Fähigkeit, sich Unsicherheit als etwas vorzustellen, das zumindest theoretisch quantifiziert werden kann. Auf diese Weise lässt sich Unsicherheit wie eine Zahl behandeln, und Zahlen können verglichen („Ist diese Sache wahrscheinlicher als jene?“) und oft auch gemessen werden.
Zugegeben, die Messung von Wahrscheinlichkeiten ist schwierig: Für gewöhnlich müssen wir ein Phänomen erst ausführlich beobachten, um Schlüsse daraus ziehen zu können. Die systematische Sammlung von Daten versetzt uns jedoch in die Lage, Aussagen zur Wahrscheinlichkeit kritisch zu beurteilen − unsere Berechnungen können sich folglich als richtig oder auch falsch erweisen. Mit anderen Worten: Das Wichtigste, was man über Wahrscheinlichkeiten wissen muss, ist, dass sich Unsicherheit immer im Rahmen rationaler Denkweisen und Diskussionen bewegt und Wahrscheinlichkeiten genau dafür einen systematischen Ansatz bieten.
Die Tatsache, dass Unsicherheit quantifiziert werden kann, ist von größter Bedeutung, beispielsweise für die Entscheidung über Impfungen oder bei anderen staatlichen Richtlinien. Noch vor Markteintritt wird jeder Impfstoff klinisch getestet, sodass alle Vorteile und Risiken quantifiziert werden können. Zwar ist es unmöglich, die Risiken im Vorfeld vollständig zu benennen, aber für gewöhnlich ist zumindest ihre Größenordnung hinreichend bekannt. Auf diese Weise kann man kritisch abwägen, ob die Vorteile oder die Risiken überwiegen.
Hinweis
Wenn wir Unsicherheit als etwas betrachten, das nicht quantifiziert oder gemessen werden kann, steht der Unsicherheitsaspekt einer rationalen Diskussion potenziell im Weg. Wir könnten zum Beispiel argumentieren, dass es zu gefährlich sei, einen Impfstoff zu verwenden, da uns nicht bekannt ist, ob er Nebenwirkungen hat. Dies jedoch könnte zur Folge haben, dass wir nichts gegen eine lebensbedrohliche Krankheit unternehmen, die der Impfstoff ausmerzen könnte. In den allermeisten Fällen sind Vorteile und Risiken so hinreichend bekannt, dass deutlich erkennbar ist, welche Seite schwerer ins Gewicht fällt.
Die vorangehende Lektion ist sowohl im Alltag als auch im beruflichen Kontext nützlich: Ärzte, Richter oder Investoren beispielsweise müssen täglich unsichere Informationen verarbeiten und darauf aufbauend rationale Entscheidungen treffen. In unserem Kurs über KI wollen wir näher betrachten, wie Wahrscheinlichkeiten dazu genutzt werden können, unsichere Logik zu automatisieren. Die Einsatzmöglichkeiten reichen von medizinischen Diagnosen (obwohl dies nicht unbedingt eine Aufgabe ist, die wir gänzlich automatisieren möchten) bis hin zur Identifikation betrügerischer E-Mail-Nachrichten (Spam).
Chancen eignen sich hervorragend zur Darstellung von Unsicherheit. So können Annahmen ganz einfach durch neue Informationen aktualisiert werden (wir kommen später noch einmal darauf zu sprechen).
Für die folgenden Ausführungen ist es wichtig, dass du dich mit der Berechnung von Verhältnissen (oder Brüchen, das heißt Zahlen wie 3/4 oder 21/365) auskennst. Da wir Brüche später noch multiplizieren und dividieren müssen, wäre es zu diesem Zeitpunkt sinnvoll, dein Wissen über diese Rechenoperationen gegebenenfalls noch einmal aufzufrischen. Eine kompakte Darstellung bietet beispielsweise Wikibooks: Multiplying Fractions (Multiplikation von Brüchen), eine animierte Präsentation der Grundlagen findest du hier: Math is Fun: Using Rational Numbers (Mathe macht Spaß: Umgang mit rationalen Zahlen). Du kannst dich aber selbstverständlich auch anderer Quellen bedienen.
Mit Chancen meinen wir zum Beispiel 3 : 1 (drei zu eins). Dies bedeutet, dass wir beispielsweise bei einer Wette in drei von vier Fällen erwarten, dass sie gewonnen, und in einem Fall, dass sie verloren wird. Wir könnten auch sagen, die Gewinnchancen stehen bei 3/4 (drei von vier). Beides bezeichnen wir als sogenannte natürliche Häufigkeiten, da sie nur ganze Zahlen beinhalten. Man kann sich beispielsweise vier Menschen vorstellen, von denen drei braune Augen haben. Oder vier Tage, von denen es an dreien regnet (wenn man sich gerade in Köln befindet).
Hinweis
Drei von vier ist natürlich das Gleiche wie 75 % (Mathematiker ziehen Dezimalzahlen wie 0,75 den Prozentzahlen vor). Es hat sich gezeigt, dass Menschen schneller verwirrt sind und zu Fehlern neigen, wenn es um Brüche und Prozentzahlen geht. Das Problem ist weniger auffällig bei natürlichen Häufigkeiten und Chancen, deswegen verwenden wir diese, wann immer es möglich ist.
Chancen werden mit zwei Ziffern dargestellt (3 und 1 beispielsweise). Dennoch sind sie als Einheit anzusehen (ein Bruch oder ein Verhältnis, zum Beispiel 3/1, das heißt drei geteilt durch eins, was 3 entspricht. Deswegen sind die Chancen 3 : 1, 6 : 2 oder 30 : 10 alle gleich, da diese Verhältnisse alle 3 ergeben. Im gleichen Sinne kann 1 : 5 als 1/5 (eins geteilt durch fünf) angesehen werden. Das Ergebnis ist 0,2 – genau wie auch bei den Chancen 2 : 10 oder 10 : 50. Aber Vorsicht: Das Chancenverhältnis 1 : 5 (ein Sieg gegenüber fünf Niederlagen) entspricht keinesfalls einer Wahrscheinlichkeit von 20 % (oder von 0,2, wie ein Mathematiker sagen würde), auch wenn man es als Dezimalzahl 0,2 ausdrücken könnte. Die Chance 1 : 5 bedeutet, dass man ein Spiel sechsmal spielen muss, damit man es im Durchschnitt einmal gewinnt. Eine Wahrscheinlichkeit von 20 % besagt hingegen, dass man ein Spiel fünfmal spielen muss, damit man durchschnittlich einmal als Sieger hervorgeht.
Es ist leicht zu merken, dass es sich bei Chancen, die größer als eins sind (zum Beispiel 5 : 1), niemals um Wahrscheinlichkeiten handelt, weil keine Wahrscheinlichkeit größer als eins (bzw. größer als 100 %) sein kann. Bei Chancen, die kleiner sind als eins (zum Beispiel 1 : 5), besteht allerdings große Verwechslungsgefahr.
Vergewissere dich, dass du immer weißt, wann wir über Chancen und wann über Wahrscheinlichkeiten sprechen.
Die folgende Übung hilft dabei, die Zusammenhänge zwischen Chancen und Wahrscheinlichkeiten besser zu verstehen. Mach dir keine Gedanken, wenn dir in dieser Phase Fehler unterlaufen: Das Hauptziel ist es, die Fähigkeiten zu erlernen, die du in den nächsten Kapiteln benötigen wirst.