Eine KI-Expertin teilt ihre Befürchtungen (und Hoffnungen) für die Zukunft der Technologie

click fraud protection

Künstliche Intelligenz erweist sich in vielen Branchen als bahnbrechend, aber wie regulieren wir sie? Dr. Lisa Palmer teilt einige Ideen.

Der Aufstieg von künstliche Intelligenz bedeutet für jede Branche etwas anderes. Im Kundenservice können KI-geführte Chatbots Mitarbeiter unterstützen, indem sie auf Bedenken und Interessen in Bezug auf das Produkt eines Unternehmens reagieren. In der Automobilindustrie Innovationen wie die von Tesla Autopilot und Full Self-Driving (FSD), zusammen mit fortschrittlichen Fahrassistenzsystemen (ADAS) von anderen Automobilherstellern versprechen, das Transportwesen zu verändern. Die Idee, weniger Zeit für eine Aufgabe aufzuwenden und die Chancen zu erhöhen, diese Aufgabe kompetent zu erledigen, spricht für diese Technologie.

Es sind jedoch mehrere Risiken zu beachten. Bei unsachgemäßem Einsatz kann KI der Gesellschaft Schaden zufügen, manchmal auf monumentale Weise. Von eingebauten Vorurteilen bis hin zu Unfällen, die durch neu entstehende Fahrerassistenzsysteme verursacht werden, kann viel schief gehen. Da sich die Welt allmählich einer digitalen Transformation unterzieht, müssen die Beteiligten bestimmte Gesetze umsetzen und Vorschriften, die das effiziente Studium, die Entwicklung und den Einsatz dieser leiten Technologien.

Bildschirm Rant sprach mit Lisa Palmer, ein ehemaliger großer Tech-Manager und KI-Doktorand, an wie KI negative Erfahrungen liefern kann, die zu berücksichtigenden Abhilfemaßnahmen, mögliche Strafen für diejenigen, die gegen die KI-Richtlinie verstoßen, und ihre Prognose für KI in den USA und darüber hinaus.

Lisa Palmer über die Aussichten der KI

Während die Vorteile der künstlichen Intelligenz die Medien dominieren, ist Ihr Artikel in Das Oklahoma teilt einige herausragende Erkenntnisse darüber, wie unregulierte KI der Gesellschaft erheblichen Schaden zufügen kann. Möchten Sie also im Wesentlichen Ihre Befürchtungen aufschlüsseln – worüber genau sollte sich die Öffentlichkeit Sorgen machen, wenn es um unregulierte KI geht?

Dr. Lisa Palmer: Durch meine Erfahrung in der Zusammenarbeit mit führenden technologieorientierten Unternehmen habe ich aus erster Hand miterlebt, dass KI nicht absichtlich so konzipiert ist, dass sie schädlich ist. Stattdessen verursachen Dinge, die für einen gut gemeinten Zweck entwickelt wurden, unbeabsichtigt Schaden. Es gibt viele Fälle, die von der Kreditwürdigkeitsprüfung durch Banken bis hin zur Einstellung von Mitarbeitern durch Unternehmen reichen. Obwohl KI die Produktivität und Ergebnisse verbessern soll, kann diese gut gemeinte Innovation unbeabsichtigten Schaden anrichten. Ziehen Sie die Idee in Betracht, Algorithmen für Predictive Policing zu verwenden, um die Kriminalitätsrate zu senken. Dies ist zwar intelligent, aber Predictive Policing kann dazu führen, dass das System Personen aus bestimmten Gruppen als wahrscheinliche Kriminelle einstuft, selbst wenn sie nicht vorbestraft sind. Im Wesentlichen können diese Systeme die verfassungsmäßigen Rechte der Menschen mit Füßen treten.

Da Menschen mit der Entwicklung von KI-Algorithmen beauftragt werden, können die Personen wissentlich oder unwissentlich ein gewisses Maß an Voreingenommenheit einflößen, was dazu führt, dass das System fehlerhafte Ergebnisse liefert. Welche Maßnahmen können ergriffen werden, um dies zu verhindern?

Dr. Lisa Palmer: Ich denke, es ist wichtig, dass wir verstehen, dass Vorurteile nur verwaltet und nicht beseitigt werden können. Es gibt verschiedene Arten von Voreingenommenheit – Datenvoreingenommenheit, algorithmische Voreingenommenheit und menschliche Voreingenommenheit, die meiner Meinung nach am schwierigsten sind. Datenverzerrung tritt auf, wenn wir Daten verwenden, um ein KI-System zu trainieren, das nicht die reale Welt widerspiegelt, oder wenn dies der Fall ist, führt dies zu einem unfairen Ergebnis. Betrachten Sie den Fall von Amazons KI-gestütztes Rekrutierungstool, das eine Voreingenommenheit gegenüber Frauen zeigt. Ich glaube, dass wir, um Verzerrungen auf das Nötigste zu reduzieren, die Ergebnisse von KI-gesteuerten Tools untersuchen und die Algorithmen anpassen müssen, um ausgewogenere Ergebnisse zu erzielen. Eine andere Möglichkeit, Vorurteilen entgegenzuwirken, besteht darin, dafür zu sorgen, dass die mit der Entwicklung der Modelle beauftragten Teams vielfältig sind. Ist das gedeckt, steigen die Chancen auf gerechte Entscheidungen.

Im Jahr 2016 startete Microsoft einen Chatbot auf Twitter namens Tay, dessen Entwicklung durch die Kombination von Verarbeitung natürlicher Sprache, maschinellem Lernen und Social-Media-Kultur vorangetrieben wurde. Microsoft trainierte Tay mit Datensätzen, die aus anonymisierten öffentlichen Daten stammen. Einige Stunden nach der Veröffentlichung des Bots begann er, rassistische und beleidigende Tweets zu erstellen. Als Reaktion darauf meldeten Twitter-Nutzer das Konto massiv und zwangen Microsoft, das Konto zu sperren. Was hätte Microsoft Ihrer Meinung nach tun können, um diesen Vorfall zu verhindern?

Dr. Lisa Palmer: Der Tay-Vorfall ist vergleichbar damit, einen Jugendlichen ohne Aufsicht eines Erwachsenen in eine moralisch korrupte Umgebung zu entlassen. Schlimme Dinge werden passieren. Ein ähnliches Ereignis ereignete sich dieses Jahr am 5. August. Google veröffentlichte seinen Blenderbot 3.0, und nicht lange danach machte er Berichten zufolge unangemessene und falsche Bemerkungen. Der Grund dafür ist, dass beide Bots bei ihrem maschinellen Lernprozess auf beschädigte Daten gestoßen sind, die von Menschen im Internet eingeführt wurden. Um Abhilfe zu schaffen, sollten die zum Trainieren dieser Modelle verwendeten Informationen durch Techniken wie Gender-Swapping und die Einführung sauberer synthetischer Daten repariert werden. [Gender-Swapping ist die Technik, bei der die zum Unterrichten des Systems verwendeten Daten optimiert werden, indem für jeden geschlechtsspezifischen Satz ein alternativer Satz eingefügt wird. Dabei werden geschlechtsspezifische Wörter und Sätze durch solche des anderen Geschlechts ersetzt.] Außerdem müssen die Modelle auf Dinge wie sexuelle Orientierung, Geschlecht, Identität, ethnische Zugehörigkeit und Religion untersucht werden. Auch hier sollten die Teams, die diese Aufgabe übernehmen, völlig unterschiedlich sein.

Viele Menschen glauben, dass der Aufstieg der KI signalisiert, dass Millionen von Mitarbeitern ihren Arbeitsplatz verlieren werden. Was ist Ihre ehrliche Meinung dazu und wenn Sie der oben genannten Annahme zustimmen, wie kann die aktuelle und zukünftige Belegschaft konditioniert werden, um in einer KI-gesteuerten Welt erfolgreich zu sein?

Dr. Lisa Palmer: Wie Sie wissen, gehen die Meinungen weit auseinander, wie viele Arbeitsplätze durch künstliche Intelligenz verloren gehen oder geschaffen werden. KI ist schnell gewachsen, und die weit verbreitete Automatisierung von Rollen in Branchen wie Einzelhandel, Fertigung und Automobile stützen die Theorie, dass ein beträchtlicher Teil der Gesellschaft werden wird arbeitslos. Die Menschen werden jedoch nicht schnell ihren Job verlieren, sondern einzelne Aufgaben innerhalb ihres Jobs durch KI ersetzt bekommen. Das führt schon jetzt dazu, dass Arbeitsplätze komplett neu gestaltet werden. Vor diesem Hintergrund ist es an der Zeit, KI als nützliches Werkzeug für verbesserte Arbeitsergebnisse und nicht als vollständigen Ersatz zu sehen. Damit Mitarbeiter auf dem Markt relevant bleiben, müssen sie sich weiterbilden und sich zu ständigem Lernen verpflichten. Die Idee, dass wir unsere Ausbildung beenden und dann zur Arbeit gehen, muss verschwinden. Wir müssen den Erwerb von Wissen in alles, was wir tun, integrieren und diejenigen belohnen, die bereit sind, ihren geistigen Horizont bei der Arbeit zu erweitern. Wir müssen das Entdecken und Verstehen neuer Konzepte und Arbeitsweisen zum Wohle der gegenwärtigen und zukünftigen Belegschaft fördern.

Wenn eine Person ein Verbrechen begeht, wird natürlich erwartet, dass sie wegen der Straftat angeklagt wird. Bei KI ist die Idee der rechtlichen Verantwortung jedoch verschwommen. Wenn ein KI-gestütztes System nicht das tut, was es programmiert hat, wer sollte dann dafür verantwortlich sein? Der Programmierer, das Unternehmen oder beides?

Dr. Lisa Palmer: Dieses Gebiet entwickelt sich weiter und Schäden wie die, die Sie gerade erwähnt haben, tauchen ständig auf. Jemand sollte für schädliche Fehler zur Rechenschaft gezogen werden, was heute weitgehend nicht der Fall ist. Um festzustellen, wer diese Verantwortung trägt, müssen wir pragmatisch vorgehen. Das Unternehmen, das mit einem von ihm entwickelten, getesteten und vermarkteten KI-Produkt, das nicht das erwartete Ergebnis liefert, einen Gewinn erzielt, sollte für unfaire Ergebnisse haftbar gemacht werden. Das bedeutet, dass, wenn ein Gesichtserkennungssystem Schaden verursacht, indem es jemanden fälschlicherweise identifiziert, dieser rechtlich zur Rechenschaft gezogen wird.

Glauben Sie ernsthaft, dass die Vorteile des Einsatzes von KI-Technologien die Risiken überwiegen, die mit ihrer Nutzung einhergehen?

Dr. Lisa Palmer: Mit einem Wort, ja. Ich glaube, dass Menschen plus Maschinen einige der größten Probleme der Welt lösen werden. Ich sehe ein Heilmittel für Krebs, das mithilfe künstlicher Intelligenz in Partnerschaft mit menschlicher Kreativität gefunden wird. Und Lösungen für unsere globalen Umweltprobleme zu finden, ist eine weitere spannende Möglichkeit. Um diese Dinge zu erreichen, muss KI technisch fähig sein, also muss ihre Entwicklung fortgesetzt werden. Die Gesellschaft muss den Wandel in der Art und Weise, wie Dinge getan werden, vollständig akzeptieren. Und schließlich brauchen wir Gesetze, die den Einsatz von KI lenken, um die Wahrscheinlichkeit zu verringern, dass sie für schädliche Zwecke verwendet wird. Sobald diese drei Bedingungen erfüllt sind, können wir das Potenzial der KI sicher freisetzen.

Wie hoch sollten die Strafen für die Nichteinhaltung der KI-Richtlinien sein?

Dr. Lisa Palmer: Ich würde gerne ein System sehen, in dem die Ergebnisse aller Systeme oder Prozesse, die KI verwenden, gleich sind. Organisationen, die KI verkaufen oder verwenden, die keine gerechten Ergebnisse erzielt, würden bestraft. Wenn beispielsweise Hintergrundüberprüfungen vor der Einstellung eine Gruppe von Personen unfairerweise von der Beschäftigungsberechtigung ausschließen, dann das Unternehmen Die Verwendung dieses Systems würde mit einer Geldstrafe belegt und von der Verwendung des KI-Systems ausgeschlossen, bis sie ihre Eignung für die Einstellung nachweisen können Ergebnisse. Für die USA wäre eine schnelle Minimallösung zur Bewältigung dieser ergebnisorientierten Strategie, die KI-Politik in den Zuständigkeitsbereich der Federal Trade Commission zu stellen.

Was ist Ihre ehrliche Prognose für die KI-Politik in den USA und darüber hinaus?

Dr. Lisa Palmer: Aus pragmatischer Sicht der USA werden unsere Standards von anderen Ländern für uns vorgegeben. Genau wie das, was passiert ist, als amerikanische Unternehmen gezwungen waren, ihre Operationen um den General der EU herum zu gestalten Datenschutzgrundverordnung (DSGVO) stehen wir vor einer ähnlichen Situation wie die EU. KI-Gesetz soll bald werden Gesetz. Trotz unseres rückständigen Status bin ich ermutigt von dem, was passiert ist, da wir gesehen haben, wie ein republikanischer Präsident eine Exekutivverordnung über KI erlassen hat und eine von den Demokraten kontrollierte Legislative diese später kodifiziert hat. Dann wurde Anfang dieses Jahres der Blueprint for a AI Bill of Rights veröffentlicht. Ich denke, dass die USA Initiative gezeigt haben, aber mit denen zusammenarbeiten müssen, die uns bei der Förderung der nationalen KI-Politik voraus sind. Dies ist sowohl für die nationale Sicherheit als auch für die nationale Wettbewerbsfähigkeit von entscheidender Bedeutung. Indem wir einen Bundesstandard festlegen und Organisationen für ungleiche Ergebnisse zur Rechenschaft ziehen, werden wir dies schrittweise tun Erzielen Sie durch KI positive Ergebnisse für alle und setzen Sie ihre Kraft frei, um einige der größten Probleme der Welt zu lösen Probleme.

Quelle: Das Oklahoma