Roomba schickte invasive Fotos von Freiwilligen an Etikettierer

click fraud protection

Roomba-Staubsauger, die zu Schulungszwecken eingesetzt wurden, nahmen sensible Bilder von Freiwilligen auf, die anschließend ihren Weg in die sozialen Medien fanden.

Roomba Staubsauger gesammelt sensible Bilder wie eine, die eine Frau zeigt, die auf einem Toilettensitz sitzt, und sie wurden Berichten zufolge von Personen geteilt, die mit der Ausbildung beauftragt waren Roboter Reinigungssystem. Hier ist der betreffende Teil. Amazon hat im August 2022 1,7 Milliarden US-Dollar ausgegeben, um iRobot zu kaufen. Nun, Amazons Datenschutzbilanz ist für sich genommen eher lückenhaft. Ein paar Untersuchungen, die vor etwas mehr als einem Jahr aufgetaucht sind, haben das ergeben Amazon verarbeitet sensible Kundendaten auf ziemlich verantwortungslose Weise.

Nach Dokumenten gesehen von MIT Technology Review, Bilder, die von den Roomba-Roboterstaubsaugern aufgenommen wurden, wurden unter Auftragnehmern, die mit der Kennzeichnung beauftragt waren, unter anderem auf Discord und Facebook geteilt. iRobot behauptet, dass die durchgesickerten Bilder mit Testhardware aufgenommen wurden, für die sich Freiwillige bereit erklärten, audiovisuelle Daten beizusteuern. Diese Trainingsdaten, die von den Bordkameras des Reinigungsroboters erfasst wurden, wurden von iRobot und dann gesammelt an ein Startup namens Scale AI gesendet, das Vertragsarbeiter beschäftigt, um sie für die KI zu kennzeichnen verstehen.

Hüten Sie sich vor Ihrem freundlichen Robo-Reiniger

ich Roboter

Der Prozess des Annotierens von Daten für eine KI wird normalerweise über Auftragnehmer an Niedriglohnarbeiter in Asien und Afrika ausgelagert. Bemerkenswerterweise handelte es sich dabei nicht um Hardware für Endverbraucher, die kommerziell verkauft wird. iRobot sagt das, indem er es zulässt die Verbreitung sensibler Medien, Scale AI hat gegen seine Datenschutzrichtlinie verstoßen und dass die beiden Unternehmen nach dem Vorfall ihre beruflichen Beziehungen abbrechen. Scale AI gab auch zu, dass seine Mitarbeiter für die Datenkennzeichnung gegen seinen Verhaltenskodex verstoßen haben.

Das bald Amazon-Unternehmen behauptet auch, dass diese „spezielle Entwicklungsroboter mit Hard- und Softwaremodifikationen“ kommen auch Vereinbarungen für Freiwillige, die ihnen ausdrücklich sagen, dass ihre Daten zu Schulungszwecken gesendet werden. Außerdem wurde ihnen geraten, sensible Themen und Kinder zu meiden Bereiche, in denen sich die Roboter bewegen zum Aufnehmen von Fotos, Videos und Audioclips. Besorgniserregend ist, dass 95 Prozent der Daten von iRobot aus echten Haushalten stammen, wobei die meisten Freiwilligen Angestellte oder bezahlte Haushalte sind, die von Auftragnehmern angeworben wurden. Nur ein kleiner Teil dieser KI-Trainingsdaten wird von künstlichen Häusern gesammelt, die als Modelle in einem Testset erstellt wurden.

Die durchgesickerten Bilder, von denen MIT Technology Review sah 15, wurden im Jahr 2020 unter anderem von Haushalten in den USA, Japan, Frankreich und Deutschland gesammelt. iRobot behauptet, dass alle identifizierenden Informationen zu einer Person aus den Trainingsdaten entfernt werden. Es löscht automatisch das gesamte Protokoll, falls vorhanden Bilder scheinen von Natur aus empfindlich zu sein, wie z. B. solche, die private Momente oder einen Zustand der Nacktheit darstellen. Es ist jedoch unklar, ob solche Bilder automatisch gelöscht werden oder ob ein menschlicher Moderator sie zuerst sieht und dann beschließt, die erforderlichen Maßnahmen zu ergreifen.

Eine ziemlich besorgniserregende Erkenntnis aus der iRobot-Saga ist, dass diese Lecks während der Testphase eines in der Entwicklung befindlichen Reinigungsroboters auftraten, in der Freiwilligen gesagt wurde, worauf sie sich einlassen. Für handelsübliche Geräte wie die Roomba, eine Mehrheit der Menschen macht sich nicht einmal die Mühe, die Datenerfassungsbedingungen im Detail zu lesen, und kann unwissentlich enden Übergabe einer Tonne persönlich identifizierbarer Daten an Konzerne mit laschen Datensicherheitsmaßnahmen.

Quelle: MIT Technology Review