Создано приложение для слепых, которое читает этикетки продуктов

144

Искусственный интеллект Google теперь может идентифицировать продукты питания в супермаркете. Новая разработка призвана помочь людям с нарушениями зрения. Это часть приложения Google Lookout, цель которого — помочь людям с плохим зрением или слепотой лучше ориентироваться в пространстве, сообщает BBC.

В новом обновлении добавлена ​​возможность компьютерного голоса произносить вслух, какую пищу, по мнению приложения, держит человек, в зависимости от ее внешнего вида. Google сообщает, что эта функция «сможет различать банку кукурузы и банку зеленой фасоли».

Многие приложения, такие как трекеры калорий, уже давно используют штрих-коды продуктов для определения того, что вы едите. Google сообщает, что Lookout также использует распознавание изображений, чтобы идентифицировать продукт по упаковке.

Приложение для телефонов Android содержит около 2 млн «популярных продуктов» в базе данных, которую оно хранит в телефоне, и этот каталог изменяется в зависимости от того, где находится пользователь, говорится в сообщении в блоге Google AI.

google-lookout-app-reads-grocery-labels-for-blind-people.jpg (52 KB)

В тесте на кухонном шкафу, проведенном репортером BBC, приложение без труда распознало популярный бренд американского острого соуса и другой аналогичный продукт из Таиланда. Разработка также смогла правильно считывать специи.

Но хуже было со свежими продуктами или контейнерами неправильной формы, такими как лук, картофель, тюбики с томатной пастой и мешки с мукой. Если возникала проблема, голос приложения попросил пользователя повернуть упаковку под другим углом, но по некоторым пунктам это все равно не удавалось.

Королевский национальный институт слепых Великобритании (RNIB) осторожно приветствовал новую функцию.

В идеале мы хотели бы, чтобы специальные возможности были встроены в процесс разработки этикеток, это облегчит навигацию по ним для слабовидящих людей. Робин Спинкс из благотворительной организации RNIB

Но наряду с другими подобными приложениями, такими как Be My Eyes и NaviLens , которые также доступны на iPhone, оно «может помочь повысить независимость людей с потерей зрения, быстро и легко идентифицируя продукты».

Lookout использует технологию, аналогичную Google Lens, приложению, которое может определить, на что смотрит камера смартфона, и показать пользователю дополнительную информацию. Запустив приложение в прошлом году, Google рекомендовал положить смартфон в передний карман рубашки или на шнурок на шее, чтобы камера могла распознавать предметы прямо перед ним.

Еще одна новая функция, добавленная в обновление, — это функция сканирования документа, которая делает фотографии писем и других документов и отправляет их в программу чтения с экрана для чтения вслух.

Google также заявляет, что внес улучшения в приложение на основе отзывов слабовидящих пользователей.

Источник: hightech.fm

Предыдущая статьяКурьез: на дорогах Запорожья замечен “SMART” с нестандартным номерком (ФОТО)
Следующая статьяВ Запорожье восстановили движение автобусных маршрутов № 56 и № 57