BM erstellt ein kritisches Werkzeug zur Erkennung von KI-Bias.

Bias könnte zukünftige KIs in sehr gefährliche Dinge verwandeln, weil Bias den Prozess verfälscht und mit ziemlicher Sicherheit zu Ergebnissen führen würde, die nicht vertrauenswürdig sind. Dies ist besonders beängstigend bei KIs, insbesondere da sie von schmalen KIs zu breiten KIs übergehen und schließlich als allgemeine KIs auftauchen. Denn je weiter man diesen evolutionären Weg geht, desto autonomer wird die KI und eine mächtige KI, der man nicht trauen kann, könnte leicht ein Firmenkiller sein. Es gibt nur wenige Unternehmen, die den Fokus und die Breite der Fähigkeiten haben, um eine solche Aufgabe zu übernehmen, und IBM ist glücklicherweise eines davon. Ihr in Cambridge ansässiges MIT-IBM Lab ist die Spitze des Speers, wenn es darum geht, gegen Verzerrungen anzukämpfen, und diese Woche gaben sie einige beeindruckende Fortschritte bekannt.

Lasst uns diese Woche darüber reden.

Bias, in Bezug auf eine KI, wird in Gefahr wachsen, je mehr das zugehörige Werkzeug verwendet wird und es kann in drei Bereichen eingeführt werden und sie schließen sich nicht gegenseitig aus (was bedeutet, dass alle drei Bereiche Verzerrungen einführen könnten). Die erste ist in der Qualität der Daten, Stichproben, die zu klein sind, die kritische Datensätze ausgelassen haben, oder die die Daten so organisieren, dass sie entweder vergessen oder falsch interpretiert werden, ist der offensichtlichste Ort, um nach Verzerrungen zu suchen. Allerdings könnten die KI-Algorithmen selbst voreingenommen sein (und da sie von Menschen und Menschen erstellt werden, könnte dies besonders problematisch sein), und schließlich kann die Person, die die Ergebnisse einer KI erhält, selbst voreingenommen sein und entweder die Daten oder Gewichte, die auf die identifizierten Ergebnisse angewendet werden, falsch interpretieren.

Bias ist relativ einfach einzuführen, aber sehr schwierig zu identifizieren und zu entfernen, weil die Leute, die das System benutzen, möglicherweise die gleichen Vorurteile teilen und somit nicht erkennen, dass das System schlecht funktioniert. Vorurteile könnten zu Unfällen mit freundlichen Bränden für Verteidigungsimplementierungen, fehlerhafter Diagnose durch Ärzte, die sich auf das voreingenommene System verlassen, und Smart Cities führen, die wahnsinniger sind als smart, die Bürger gefährden, insbesondere wenn autonome Autos fahren.

Die Identifizierung und Beseitigung von Verzerrungen ist daher für jedes Unternehmen, das ein KI-System einsetzt, von entscheidender Bedeutung.

Ich sprach mit Lisa Amini, der Cambridge Lab Director von IBM Research, die einen Großteil dieser Bemühungen überwacht, um Verzerrungen bei diesen aufkommenden KIs zu beseitigen. IBM hat in den letzten 10 Jahren 240 Millionen Dollar für die Entwicklung und Verfeinerung künstlicher Intelligenz aufgewendet. Das Cambridge Lab von IBM arbeitet sehr eng mit dem MIT zusammen und hält eine 100%ige Beteiligung beider Unternehmen an diesen KI-bezogenen Produkten.

Derzeit liegt ein Großteil des Fokus auf der aktuellen Generation von Narrow AIs, die Single Task, Single Domain, aber mit übermenschlicher Genauigkeit und Geschwindigkeit an ihre sehr engen Aufgaben gebunden sind. Was sie tun, wird Auswirkungen auf die KI haben, da sie sich zunächst in eine breite KI (Multi-Task, Multi-Domain, multimodale, verteilte, erklärbare KI) und schließlich in eine völlig autonome und unabhängige allgemeine KI entwickeln.

Ihre Arbeit zur Beseitigung von Verzerrungen beginnt mit einem Schwerpunkt auf DNNs (Deep Neural Networks), um den Informationsfluss zu bewerten und festzustellen, welche Informationen für die Fragestellung wesentlich sind (im Wesentlichen die Beseitigung von Lärm). Sie arbeiten auch an der Fehlersuche bei Neuronalen Netzen, identifizieren und klassifizieren sie mit menschlicher Hilfe, um sicherzustellen, dass es keine Verzerrungen in der KI selbst gibt. Ein Teil dieser Arbeit besteht darin, sowohl feindliche Angriffe zu identifizieren als auch sie als Teil einer Rückkopplungsschleife zu erstellen, die darauf ausgelegt ist, Angriffsflächen in Echtzeit zu antizipieren und zu mildern. Dazu verwenden sie einen Prozess namens Crown Network, der die Angriffsfläche begrenzt und definiert.

Einige der interessanten Angriffe, die sie identifiziert haben, sind die Verwendung von gelben Post-It Notizen auf Stoppschildern, die die KI glauben lassen, dass es sich um eine andere Art von Zeichen handelt (und ein autonomes Auto veranlassen könnten, ein Stoppschild zu fahren) und große gelbe dunkle Brillen, die eine KI mit Gesichtserkennung verpassen und jemanden als fehlerhafte Berühmtheit kategorisieren können. Diese Bemühungen werden weitgehend von einem Team von erstklassigen Principal Investigators durchgeführt, die aggressiv sicherstellen, dass die Bemühungen von IBM unvoreingenommen sind.

Einpacken:

Während die allgemeinen KI auf etwa 30 Jahre in unserer Zukunft geschätzt werden, haben wir heute enge KI’s, und in wenigen Jahren werden sich diese zu breiten KI’s mit viel mehr Autonomie und Breite entwickeln. Vorurteile könnten die Wirksamkeit und Genauigkeit dieser KI stark beeinträchtigen, und vor allem in der Medizin könnten sie tödliche Folgen haben. Ein Versuch, diese Verzerrung zu beseitigen, ist entscheidend für den Erfolg dieser Technologie, und das gemeinsame Labor von IBM und MIT in Cambridge ist das scharfe Ende dieses Speers.

Mit einer geplanten Investition von 240 Millionen Dollar und einem Aufwand, der sich über die meisten IBM-Labore, 17 Abteilungszentren und mehr als 30 aktive verwandte Projekte erstreckt, ist das Unternehmen ernsthaft mit der Sicherheit, dem Schutz und der Genauigkeit von KI beschäftigt. Das ist Old School IBM und wir brauchen Old School IBM für etwas so Revolutionäres und Gefährliches wie KI.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.