Živo besedilo iOS 15 vs. Google Lens: primerjava orodij za prepoznavanje slik

click fraud protection

Apple je nedavno objavil svojo novo funkcijo Live Text za iPhone, ki je izjemno podobna Google Objektiv. Medtem ko je Lens že nekaj let v aktivnem razvoju, je Applova rešitev trenutno v beta testiranju za razvijalce in se uradno ne bo začela, dokler ne bo prispela posodobitev za iOS 15 pozneje letos. Računalniki in prenosni računalniki Mac, ki lahko poganjajo macOS Monterey in kateri koli iPad, ki je združljiv z iPadOS 15, bodo prejeli iste funkcije za prepoznavanje besedila in predmetov.

Google Lens prvič se je pojavil s pametnim telefonom Pixel 2 podjetja leta 2017. Programska oprema za prepoznavanje besedila je obstajala že dolgo pred tem, a z Googlovo implementacijo je bila ta zmožnost združena z Google Assistantom in spretnostmi iskalnika podjetja. Dejanja, ki temeljijo na besedilu na fotografijah in ogledih kamere v živo, so močnejša od preprostega ekstrahiranja besedila iz fotografije, kot je to storila prejšnja programska oprema OCR (optično prepoznavanje znakov). Prepoznavanje predmetov dodaja še eno plast kompleksnosti, prepoznavanje ljudi in živali za uporabo v spletni storitvi za shranjevanje slik, Google Photos. Apple je svojo aplikacijo Photos izboljšal s podobnim prepoznavanjem predmetov za namene organiziranja slik, vendar Google Lens ni bil pravi izziv, dokler

Objavljeno je bilo besedilo v živo.

S prihajajočo nadgradnjo iOS 15, Applova Živo besedilo takoj prepozna katero koli besedilo na fotografiji, tako da je vsako besedo, črko, številko in simbol mogoče izbrati, poiskati in na voljo za različna dejanja. Na primer, kateri koli del ali vse besede na fotografiji je mogoče prevesti, e-poštni naslovi in ​​telefonske številke postanejo povezave, ki zaženejo aplikaciji Pošta in Telefon, ko jih tapnete ali kliknete. Iskanje v središču pozornosti bo lahko poiskalo tudi fotografije na podlagi besedila in predmetov na slikah, s čimer bo obnovil podatke ali poiskal določena fotografija veliko lažje za tiste z velikimi knjižnicami. To so zelo vznemirljivi in ​​uporabni dodatki za naprave Apple, toda v resnici imajo uporabniki iPhone in iPad dostop do podobnih zmogljivosti od leta 2017, ko je Google dodal Lens v svojo iskalno aplikacijo za iOS. Google Photos je na voljo tudi v napravah Apple, kar pomeni, da iskanje besedila in predmetov deluje tudi tam. Primerjava funkcij je zelo blizu in Apple ima še nekaj mesecev do uradne predstavitve. Za lastnike združljivih naprav Apple, bodo funkcije Live Text zagotovile zmogljivosti, ki so postale običajne v številnih telefonih Android.

Besedilo v živo v primerjavi z Google Lens: združljivost in zasebnost

Appleove nove funkcije Live Text in Visual Lookup zahtevata relativno nov iPhone ali iPad s procesorjem A12 ali novejšim. Za računalnike Mac samo najnovejši modeli, ki uporabljajo Appleov čip M1 so združljivi. Računalniki, ki temeljijo na Intelu, tudi tisti, ki so mlajši od enega leta, ne bodo imeli dostopa do Live Text. Medtem pa Google Lens in Google Photos delata svojo čarobnost na veliko širši paleti mobilnih naprav in računalnikov. Objektiv je bil sprva na voljo samo na Telefoni Pixel, nato razširili na nekaj drugih telefonov Android in naprav Chrome OS. Vendar pa je večina naprav Android pridobila dostop prek fotografij. Prek brskalnika lahko računalniki Windows, Mac in Linux uporabljajo Googlov robusten nabor funkcij za prepoznavanje slik, pri čemer je leča prikazana kot možnost, ko je besedilo na fotografiji prepoznano. To pomeni, da je Google Lens na voljo za skoraj vsako nedavno napravo katerega koli proizvajalca. Google ima veliko več izkušenj s prepoznavanjem slik, saj je Lens lansiral nekaj let pred Applovim Live Text. To tudi pomeni, da bo Google Lens verjetno bolj natančen in bo imel na splošno več funkcij. Ker Live Text še ni na voljo javnosti, se lahko doda več funkcij in združljivost se lahko sčasoma poveča, tako kot pri Google Lens.

Razlog, zakaj je Apple dal Live Text na voljo le nedavnim lastnim procesorjem, je njegov predanost zasebnosti. Medtem ko Google Lens zahteva aktivno internetno povezavo, Applovo besedilno in vizualno iskanje v živo ne, saj obdelava z uporabo zmogljivosti AI čipov, vgrajenih v iPhone, iPad ali M1 Mac. To bi lahko prineslo boljše delovanje v primerjavi z Googlom pri uporabi počasne internetne povezave. Apple bi lahko napisal kodo za izvajanje Live Text na procesorjih Intel, saj Mac Pro ponuja veliko večjo zmogljivost kot M1 Mac. Vendar pa Apple odhaja od Intela in je manj verjetno, da bo pisal zapletene algoritme, ki se zanašajo na specializirano strojno opremo za te starejše sisteme. To je slaba novica za tiste, ki so lani kupili Intel Mac, vendar v resnici ni presenečenje. Za naprave Apple, ki niso združljive, ima Google zelo dobro rešitev za prepoznavanje besedila, prevajanje in drugo, ko z uporabo Google Foto in mobilno aplikacijo Google Iskanje. Za lastnike M1 Mac in najnovejših modelov iPhone Applov Live Text ponuja odgovor, osredotočen na zasebnost, ki se bolje integrira z aplikacijo Apple Photos in celotnim ekosistemom Apple.

vir: Apple, Google

Windows 11: Kako hitro poiskati shranjena gesla za Wi-Fi

O avtorju