A Facebook első személyű nézetben tanítja az AI-t. Okos és riasztó

click fraud protection

Facebook új kutatási projektet jelentett be Ego4D néven, melynek célja mesterséges intelligencia modellek betanítása a emberi szemszögből, majd útmutatást ad a kiterjesztett valóságra vonatkozó jelzések segítségével a múlt naplójának elérése révén felvételek. A közösségimédia-óriás legújabb, mesterséges intelligencia-központú kutatási projektje a számítógépes látástechnológiát helyezi előtérbe és középpontba, amelyet egyesek már használnak. olyan termékek esetében, mint a Google Lens és néhány egyéb vásárlási eszköz, ahol egy képet tanulmányoznak, hogy hasonló listákat vonjanak be az e-kereskedelemből platformok.

A cég a közelmúltban részletesen ismertette az újdonságokkal kapcsolatos munkáját AI-alapú vizuális kereső és termékfelderítő eszközök ami fokozza a vásárlási élményt az Instagramon. Útközben felveszi a ruházati cikkek online listáját, ha egyszerűen megérinti egy személy fényképét. A házon belüli termékfelismerő rendszer annyira fejlett, hogy még olyan homályos szövegalapú lekérdezések esetén is releváns termékeket gyűjt a platformokon, mint például a „találjon hasonló pöttyös mintájú inget”. Mindezek a tárgyfelismerő rendszerek azonban túlnyomórészt egy harmadik személy szemszögéből készített fényképeken és videókon kiképzett számítógépes látásrendszeren alapulnak.

A Facebook egy lépéssel tovább megy azáltal, hogy az Ego4D mesterséges intelligencia részeként az edzési adatok perspektíváját az oldalvonalról egyenesen az akció közepére változtatja. projektet. A lehetőségek végtelenül előnyösnek tűnnek, és egy kicsit ijesztőnek is. A képzési adatok összegyűjtése érdekében a Facebook kilenc ország 13 intézménnyel működött együtt, amelyek több mint 700 résztvevőt toboroztak a további rögzítés érdekében. több mint 2200 órányi első személyű felvétel, amely dokumentálja a napi tevékenységeket, mint például a bevásárlás, az edények mosása és a dobolás. kevés. A cél a tevékenységek rögzítése, és a forgatókönyv értékelése a személy saját szemszögéből, hasonlóan az általa rögzített cselekvéshez A Facebook saját Ray-Ban Stories napszemüvege.

A Metaverse első pillantása AR-val a központban

A cég ezt egocentrikus észlelésnek nevezi, innen ered az Ego4D elnevezés is. A videót átírták és megjegyzésekkel ellátták, hogy mindent leírjanak a keretben az objektumtól a cselekvésig, hogy egy adatkészlet, amelyet a kutatók világszerte használhatnak számítógépes látásrendszerek fejlesztésére és a mesterséges intelligencia fejlesztésének új hullámának katalizálására. A Wendy’s nemrégiben a Google Clouddal együttműködve létrehoz egy ilyen számítógépes látórendszert, amely felügyeli a konyhát és figyelmeztesse a szakácsot, amikor ideje megfordítani a hamburgert. A Facebook Ego4D projektje azonban olyan AR-pörgetést tesz lehetővé az AI-képességeken, amelyek messze túlmutatnak az elemzésen, és valójában a felhasználók cselekvéseinek előrejelzésének birodalmába lépnek.

Ehhez a Facebook öt olyan mércét varázsolt elő, amelyeket az egocentrikus felfogású MI-nek el kell érnie. Az első az epizodikus emlékezet, amely ugyanúgy működik, mint az emberi emlékezet. Például, ha a felhasználók elfelejtik, hova helyezték el a TV távirányítóját, az AI hozzáfér a múltbeli első személyű videókhoz, hogy ellenőrizze, hol hagyta azt, majd AR-jelekkel a hely felé irányítja őket. kicsit olyan, mint az Apple Maps. A második benchmark az előrejelzés, amely előrejelzi, hogy a felhasználó mit fog tenni, és biztosítja a szükséges riasztást. Tehát, ha a felhasználó már borsot tett a curryjába, és ismét a paprikaporos üvegért nyúl, a Az AI felismeri a közelgő akciót, és azonnal figyelmezteti a felhasználókat, hogy az összetevő már megvolt tette hozzá.

meghirdetjük #Ego4D, egy ambiciózus, hosszú távú projekt, amelybe 9 ország 13 egyetemével kezdtünk, az első személyű észlelés fejlesztése érdekében. Ez a munka katalizálja a kutatást annak érdekében, hogy hasznosabb AI-asszisztenseket, robotokat és más jövőbeli innovációkat építsenek ki. https://t.co/oJSxptBo52pic.twitter.com/PaxP4n53C5

– Facebook AI (@facebookai) 2021. október 14

Hasonlóképpen a "kéz és tárgy manipuláció" A benchmark azt akarja, hogy a mesterséges intelligencia emlékezzen az események helyes sorrendjére, amit a tanulók hasznosnak találnak, mivel az AR-jelek megmutatják nekik a lépéseket egy rögzített oktatóvideóban. A negyedik mérce a társadalmi interakció, míg az ötödik – és a legriasztóbb – az audiovizuális naplózás. Ez magában foglalja egy hang (és esetleg szövegalapú) napló mentését arról, hogy mit mondott egy személy a kamera nézetében. A felhasználók ezután kérdéseket tehetnek fel az AI-nak, például, hogy az ABC mit mondott egy adott napon a kávészünetben. A Facebook még nem részletezte a projektjének látszólag hatalmas adatvédelmi behatolási forgatókönyveinek biztosítékait. Az A Ray-Ban történeteket már górcső alá vették mert képesek teljes kúszás módba menni. És egy olyan okos mesterséges intelligencia esetén, mint az Ego4D, sokkal több a magánélettel kapcsolatos aggodalma.

Pozitívum, hogy az Ego4D projekt nagyon világos bepillantást enged mit akar elérni a Facebook a metaverzummal, legalábbis ha a felhasználók mindennapi életében való segítéséről van szó. A kibővített valóság erőteljes alkalmazása e célok elérése érdekében annak a jele, hogy a Facebook mindent megtesz az AR-ben, és minden bizonnyal készülőben vannak a fejlettebb viselhető eszközök. De a legnagyobb kérdés az, hogy a felhasználók elégedettek lesznek-e vele Facebook személyesebb hozzáférést kaphatnak az életükhöz első személyű videókon keresztül, tekintettel a cég vázlatos múltjára a magánélethez kapcsolódó botrányokkal.

Forrás: Facebook

Az FTC készen áll arra, hogy lépéseket tegyen a hamis vélemények miatt, több száz vállalatra figyelmeztet

A szerzőről