Live Text di iOS 15 vs. Google Lens: strumenti di riconoscimento delle immagini a confronto

click fraud protection

Mela ha recentemente annunciato la sua nuova funzione Live Text per iPhone, che è notevolmente simile a Google Lente. Sebbene Lens sia in fase di sviluppo attivo da diversi anni, la soluzione di Apple è attualmente in fase di beta test per sviluppatori e non verrà lanciata ufficialmente fino all'arrivo dell'aggiornamento iOS 15 entro la fine dell'anno. I computer Mac e i laptop che possono eseguire macOS Monterey e qualsiasi iPad compatibile con iPadOS 15 riceveranno le stesse funzionalità di riconoscimento di testo e oggetti.

Google Lens è apparso per la prima volta con lo smartphone Pixel 2 dell'azienda nel 2017. Il software di riconoscimento del testo esisteva molto prima, ma con l'implementazione di Google, questa funzionalità è stata combinata con l'Assistente Google e le competenze dei motori di ricerca dell'azienda. Le azioni basate sul testo trovato nelle fotografie e nelle visualizzazioni della fotocamera dal vivo sono più potenti della semplice estrazione del testo da una foto come faceva il precedente software OCR (riconoscimento ottico dei caratteri). Il riconoscimento degli oggetti aggiunge un altro livello di complessità, identificando persone e animali da utilizzare in un servizio di archiviazione di immagini online, Google Foto. Apple ha migliorato la sua app Foto con un riconoscimento di oggetti simile allo scopo di organizzare le immagini, ma non c'era una vera sfida per Google Lens fino a quando

È stato annunciato il testo in diretta.

Con l'imminente aggiornamento di iOS 15, Apple's Testo dal vivo identifica istantaneamente qualsiasi testo in una foto, rendendo ogni parola, lettera, numero e simbolo selezionabile, ricercabile e disponibile per varie azioni. Ad esempio, qualsiasi parte o tutte le parole di una foto possono essere tradotte, gli indirizzi e-mail e i numeri di telefono diventano collegamenti che avviano le app Posta e Telefono quando li si tocca o si fa clic su di essi. La ricerca Spotlight sarà anche in grado di trovare foto in base al testo e agli oggetti nelle immagini, recuperando informazioni o individuando un foto particolare molto più facile per chi ha grandi biblioteche. Queste sono aggiunte molto interessanti e utili ai dispositivi Apple ma, in verità, gli utenti di iPhone e iPad hanno avuto accesso a funzionalità simili dal 2017, quando Google ha aggiunto Lens alla sua app di ricerca iOS. Google Foto è disponibile anche sui dispositivi Apple, il che significa che la ricerca di testo e oggetti funziona anche lì. Il confronto delle funzionalità è molto ravvicinato e Apple ha ancora diversi mesi prima del lancio ufficiale. Per i possessori di dispositivi Apple compatibili, le funzionalità di Live Text forniranno funzionalità che sono diventate comuni su molti telefoni Android.

Testo in tempo reale rispetto a Google Lens: compatibilità e privacy

Le nuove funzionalità Live Text e Visual Lookup di Apple richiedono un iPhone o iPad relativamente nuovo con un processore A12 o più recente. Per i computer Mac, solo i modelli più recenti che utilizzano Chip M1 di Apple sono compatibili. I computer basati su Intel, anche quelli con meno di un anno, non avranno accesso a Live Text. Nel frattempo, Google Lens e Google Foto fanno la loro magia su una varietà molto più ampia di dispositivi mobili e computer. L'obiettivo era inizialmente disponibile solo su Telefoni Pixel, quindi esteso ad alcuni altri telefoni Android e dispositivi Chrome OS. Tuttavia, la maggior parte dei dispositivi Android ha ottenuto l'accesso tramite Foto. Attraverso un browser, i computer Windows, Mac e Linux possono utilizzare il solido set di funzionalità di riconoscimento delle immagini di Google, con Lens che viene mostrato come opzione quando il testo viene riconosciuto in una foto. Ciò significa che Google Lens è disponibile per quasi tutti i dispositivi recenti di qualsiasi produttore. Google ha molta più esperienza con il riconoscimento delle immagini, avendo lanciato Lens diversi anni prima di Live Text di Apple. Ciò significa anche che Google Lens sarà probabilmente più accurato e avrà più funzionalità in generale. Poiché Live Text non è ancora stato reso disponibile al pubblico, potrebbero essere aggiunte più funzionalità e la compatibilità potrebbe crescere nel tempo, proprio come è successo con Google Lens.

Il motivo per cui Apple ha reso disponibile Live Text solo per i recenti processori interni è dovuto al suo dedizione alla privacy. Mentre Google Lens richiede una connessione Internet attiva, Live Text e Visual Lookup di Apple no, con l'elaborazione che utilizza le funzionalità AI dei chip integrati in un iPhone, iPad o M1 Mac. Ciò potrebbe portare a prestazioni migliori rispetto a Google quando si utilizza una connessione Internet lenta. Apple avrebbe potuto scrivere il codice per eseguire Live Text sui processori Intel poiché un Mac Pro offre prestazioni molto più elevate di un Mac M1. Tuttavia, Apple si sta allontanando da Intel ed è meno probabile che scriva algoritmi complicati che si basano su hardware specializzato per quei vecchi sistemi. Questa è una brutta notizia per coloro che hanno acquistato un Mac Intel l'anno scorso, ma non è davvero una sorpresa. Per i dispositivi Apple non compatibili, Google ha un'ottima soluzione per il riconoscimento del testo, la traduzione e altro, quando utilizzando Google Foto e l'app per dispositivi mobili di ricerca di Google. Per i possessori del Mac M1 e dei modelli recenti di iPhone, Live Text di Apple fornisce una risposta incentrata sulla privacy che si integra meglio con l'app Foto di Apple e l'intero ecosistema Apple.

Fonte: Mela, Google

Windows 11: come trovare rapidamente le password Wi-Fi salvate

Circa l'autore