Live Text против iOS 15 против. Google Lens: сравнение инструментов распознавания изображений

click fraud protection

яблоко недавно анонсировала новую функцию Live Text для iPhone, которая очень похожа на Google Объектив. Хотя Lens находится в активной разработке уже несколько лет, решение Apple в настоящее время проходит бета-тестирование для разработчиков и официально не будет запущено до выхода обновления iOS 15 в конце этого года. Компьютеры и ноутбуки Mac, на которых может работать macOS Monterey, и любой iPad, совместимый с iPadOS 15, получат те же функции распознавания текста и объектов.

Google Lens впервые появился на смартфоне Pixel 2 компании в 2017 году. Программное обеспечение для распознавания текста существовало задолго до этого, но с внедрением Google эта возможность была объединена с Google Assistant и навыками поисковой системы компании. Действия, основанные на тексте на фотографиях и изображениях с камеры в реальном времени, более эффективны, чем простое извлечение текста из фотографии, как это делало предыдущее программное обеспечение OCR (оптического распознавания символов). Распознавание объектов добавляет еще один уровень сложности, идентифицируя людей и животных для использования в онлайн-хранилище изображений Google Фото. Apple улучшила свое приложение Photos с помощью аналогичного распознавания объектов с целью упорядочивания изображений, но до Google Lens не было серьезных проблем до тех пор, пока

Объявлен Live Text.

С предстоящим обновлением iOS 15 Apple Живой текст мгновенно идентифицирует любой текст на фотографии, делая каждое слово, букву, число и символ доступным для выбора, поиска и выполнения различных действий. Например, любая часть или все слова на фотографии могут быть переведены, адреса электронной почты и номера телефонов становятся ссылками, которые запускают приложения «Почта» и «Телефон» при нажатии или нажатии на них. Поиск Spotlight также сможет находить фотографии на основе текста и объектов на изображениях, восстанавливая информацию или находя конкретное фото намного проще для тех, у кого большие библиотеки. Это очень интересные и полезные дополнения к устройствам Apple, но, по правде говоря, пользователи iPhone и iPad имели доступ к аналогичным возможностям с 2017 года, когда Google добавил Lens в свое приложение для поиска iOS. Google Фото также доступен на устройствах Apple, то есть поиск текста и объектов также работает там. Сравнение функций очень близко, и у Apple есть еще несколько месяцев до официального запуска. Для владельцев совместимые устройства Apple, функции Live Text предоставят возможности, которые стали обычными для многих телефонов Android.

Live Text против Google Lens: совместимость и конфиденциальность

Для новых функций Apple Live Text и Visual Lookup требуется относительно новый iPhone или iPad с процессором A12 или новее. Для компьютеров Mac только новейшие модели, использующие Чип Apple M1 совместимы. Компьютеры на базе Intel, даже если им меньше года, не будут иметь доступа к Live Text. Между тем, Google Lens и Google Photos творит чудеса на гораздо более широком спектре мобильных устройств и компьютеров. Изначально объектив был доступен только на Телефоны Pixel, а затем расширился до нескольких других телефонов Android и устройств с Chrome OS. Однако большинство устройств Android получили доступ через фотографии. Через браузер компьютеры под управлением Windows, Mac и Linux могут использовать надежный набор функций распознавания изображений Google, при этом Lens отображается в качестве опции, когда текст распознается на фотографии. Это означает, что Google Lens доступен практически для каждого нового устройства от любого производителя. У Google гораздо больше опыта в распознавании изображений, поскольку он запустил Lens за несколько лет до Apple Live Text. Это также означает, что Google Lens, вероятно, будет более точным и будет иметь больше функций в целом. Поскольку Live Text еще не стал общедоступным, могут быть добавлены дополнительные функции, а совместимость со временем может вырасти, как это было с Google Lens.

Причина, по которой Apple сделала Live Text доступным только для последних собственных процессоров, заключается в его преданность конфиденциальности. В то время как Google Lens требует активного подключения к Интернету, Apple Live Text и Visual Lookup этого не делают, поскольку для обработки используются возможности искусственного интеллекта чипов, встроенных в iPhone, iPad или M1 Mac. Это может улучшить производительность по сравнению с Google при использовании медленного интернет-соединения. Apple могла бы написать код для выполнения Live Text на процессорах Intel, поскольку Mac Pro предлагает гораздо более высокую производительность, чем Mac M1. Однако Apple уходит от Intel и с меньшей вероятностью будет писать сложные алгоритмы, которые полагаются на специализированное оборудование для этих старых систем. Это плохая новость для тех, кто приобрел Intel Mac в прошлом году, но на самом деле это не сюрприз. Для несовместимых устройств Apple у Google есть очень хорошее решение для распознавания текста, перевода и многого другого, когда с помощью Google Фото и мобильное приложение поиска Google. Для владельцев Mac M1 и последних моделей iPhone Live Text от Apple предоставляет ответ, ориентированный на конфиденциальность, который лучше интегрируется с приложением Apple Photos и всей экосистемой Apple.

Источник: яблоко, Google

Windows 11: как быстро найти сохраненные пароли Wi-Fi

Об авторе