Facebook szkoli sztuczną inteligencję z perspektywy pierwszej osoby. To jest inteligentne i niepokojące

click fraud protection

Facebook ogłosił nowy projekt badawczy o nazwie Ego4D, którego celem jest trenowanie modeli AI za pomocą filmów nagranych z ludzką perspektywę, a następnie udzielanie wskazówek za pomocą wskazówek rzeczywistości rozszerzonej, uzyskując dostęp do dziennika przeszłości nagrania. Najnowszy projekt badawczy giganta mediów społecznościowych skupiający się na sztucznej inteligencji stawia na pierwszym miejscu technologię wizji komputerowej, która jest już używana przez niektórych zakres produktów, takich jak Google Lens i kilka innych narzędzi zakupowych, w których analizowany jest obraz, aby wyciągnąć podobne oferty z handlu elektronicznego platformy.

Firma niedawno szczegółowo opisała swoje prace nad nowymi Oparte na sztucznej inteligencji narzędzia do wyszukiwania wizualnego i odkrywania produktów które poprawią wrażenia z zakupów na Instagramie. Po drodze wyświetli on-line wykazy ubrań, po prostu dotykając zdjęcia danej osoby. Wewnętrzny system rozpoznawania produktów jest tak zaawansowany, że wyświetla odpowiednie produkty nawet w przypadku niejasnych zapytań tekstowych, takich jak „znajdź koszulę z podobnym wzorem w kropki” na swoich platformach. Ale wszystkie te systemy rozpoznawania obiektów opierają się głównie na komputerowym systemie wizyjnym wyszkolonym na zdjęciach i filmach uchwyconych z perspektywy trzeciej osoby.

Facebook idzie o krok dalej, zmieniając perspektywę danych treningowych z linii bocznych na prosto w środek akcji z perspektywą pierwszoosobową w ramach Ego4D AI projekt. Możliwości wydają się być nieskończenie korzystne i trochę przerażające. Aby zebrać dane szkoleniowe, Facebook nawiązał współpracę z 13 instytucjami w dziewięciu krajach, które zrekrutowały ponad 700 uczestników, aby nagrać więcej ponad 2200 godzin nagrań z perspektywy pierwszej osoby dokumentujących codzienne czynności, takie jak zakupy spożywcze, mycie naczyń i granie na bębnach, aby wymienić mało. Celem jest uchwycenie działań, a także ocena scenariusza z własnej perspektywy, podobnie jak akcja nagrana przez Okulary przeciwsłoneczne Ray-Ban Stories na Facebooku.

Pierwsze spojrzenie na Metaverse z AR w centrum

Firma nazywa to postrzeganiem egocentrycznym, stąd nazwa Ego4D. Film został przepisany i opatrzony adnotacjami, aby opisać wszystko w kadrze, od obiektu po akcję, w celu stworzenia zestaw danych, który naukowcy z całego świata mogą wykorzystać do opracowywania komputerowych systemów wizyjnych i katalizowania nowej fali rozwoju sztucznej inteligencji. Wendy niedawno nawiązała współpracę z Google Cloud, aby stworzyć taki komputerowy system wizyjny, który będzie monitorował kuchnię i zaalarmuj kucharza, gdy nadejdzie czas na przerzucenie hamburgerów. Jednak projekt Ego4D Facebooka stawia na AR spin tych możliwości AI, które wykraczają daleko poza analizę i faktycznie wkraczają w sferę przewidywania działań użytkowników.

Aby to zrobić, Facebook wyczarował zestaw pięciu punktów odniesienia, które musi osiągnąć egocentryczna sztuczna inteligencja. Pierwsza to pamięć epizodyczna, która działa tak samo jak pamięć ludzka. Na przykład, gdy użytkownicy zapomną, gdzie umieścili pilota do telewizora, sztuczna inteligencja uzyska dostęp do wcześniejszych filmów z pierwszej osoby, aby sprawdzić, gdzie użytkownicy go zostawili, a następnie poprowadzi ich w to miejsce za pomocą wskazówek AR trochę jak Mapy Apple. Drugim benchmarkiem jest prognozowanie, które przewiduje, co użytkownik ma zamiar zrobić, i zapewnia niezbędny alert. Tak więc, jeśli użytkownik dodał już pieprz do swojego curry i ponownie sięga po butelkę z pieprzem w proszku, AI rozpozna nadchodzącą akcję i natychmiast powiadomi użytkowników, że składnik już został dodany.

Ogłaszamy #Ego4D, ambitny, długoterminowy projekt, który rozpoczęliśmy na 13 uniwersytetach w 9 krajach, aby poprawić postrzeganie w pierwszej osobie. Prace te przyspieszą badania nad stworzeniem bardziej użytecznych asystentów sztucznej inteligencji, robotów i innych przyszłych innowacji. https://t.co/oJSxptBo52pic.twitter.com/PaxP4n53C5

— Sztuczna inteligencja na Facebooku (@facebookai) 14 października 2021

Podobnie „manipulacja ręką i przedmiotem” Benchmark chce, aby sztuczna inteligencja zapamiętała prawidłową sekwencję zdarzeń, co będzie pomocne dla uczniów, ponieważ wskazówki AR pokażą im kroki w nagranym filmie szkoleniowym. Czwartym punktem odniesienia jest interakcja społeczna, a piątym — i najbardziej alarmującym — jest diaryzacja audiowizualna. Ten polega na zapisaniu audio (i prawdopodobnie również tekstowego) dziennika tego, co mówiła osoba w widoku kamery. Użytkownicy mogą następnie zadawać pytania AI, takie jak to, co osoba ABC powiedziała podczas przerwy na kawę w danym dniu. Facebook nie określił jeszcze zabezpieczeń przed pozornie masowymi scenariuszami włamań do prywatności w swoim projekcie. ten Historie Ray-Ban zostały już poddane analizie ze względu na ich zdolność do przejścia w tryb pełnego pełzania. A dzięki sztucznej inteligencji tak inteligentnej jak Ego4D będzie znacznie więcej zmartwień związanych z prywatnością.

Z pozytywnej strony projekt Ego4D daje bardzo wyraźny wgląd w co Facebook chce osiągnąć dzięki metaverse, przynajmniej jeśli chodzi o pomaganie użytkownikom w ich codziennym życiu. A intensywne stosowanie rozszerzonej rzeczywistości w celu osiągnięcia tych celów jest znakiem, że Facebook będzie all-in na AR, a bardziej zaawansowane urządzenia do noszenia są zdecydowanie w przygotowaniu. Ale najważniejsze pytanie brzmi, czy użytkownicy będą zadowoleni z Facebook mając bardziej osobisty dostęp do swojego życia za pośrednictwem filmów z pierwszej osoby, biorąc pod uwagę pobieżną przeszłość firmy ze skandalami związanymi z prywatnością.

Źródło: Facebook

FTC gotowa do podjęcia działań w stosunku do fałszywych recenzji, ostrzega setki firm

O autorze