Новая покупка Apple может решить мою главную проблему с ИИ

Apple приобрела Q.ai в рамках сделки, оцениваемой примерно в 2 миллиарда долларов. Хотя мы все еще знаем далеко не все, некоторые детали работы Q.ai заставляют меня с большим нетерпением ждать будущего ИИ и предложений Siri от Apple.

Последнее приобретение Apple, Q.ai, специализируется на распознавании «тихого» ввода голоса

Apple постоянно приобретает компании, но крайне редко делает такой громкий и дорогой шаг, как покупка Q.ai.

Сообщается, что цена в 2 миллиарда долларов делает Q.ai вторым крупнейшим приобретением в истории Apple. Его опережает только покупка Beats за 3 миллиарда долларов более десяти лет назад.

Но, несмотря на высокую цену, многое в работе Q.ai остается загадкой.

Как писал главный редактор 9to5Mac Чанс Миллер, компания «разработала технологию машинного обучения для аудио и «тихого» ввода голоса».

На сайте компании указан слоган: «В мире, полном шума, мы создаем новый вид тишины».

Израильский технологический сайт Geektime изучил детали патентов, чтобы раскрыть работу Q.ai. Вот перевод:

Согласно заявкам на патенты, компания, по-видимому, работает над чтением того, что говорится, не с помощью голоса, а с использованием оптических датчиков, которые обнаруживают мышечные и кожные движения на лице, чтобы преобразовывать их в слова или команды. Некоторые из патентов указывают на использование гарнитуры, которая также исследует щеку и челюсть пользователя и, по-видимому, позволит вам разговаривать с Siri, голосовым помощником Apple, используя только движения губ.

Ожидается, что эта технология будет интегрирована с умными очками и/или наушниками, такими как AirPods.

И если эти ранние сообщения точны, Apple может быть на пути к решению моей самой большой проблемы с ИИ.

Почему приобретение Q.ai может стать огромным прорывом для ИИ и Siri

Как и миллионы других людей по всему миру, я заметил значительное увеличение использования ИИ-чатботов за последние пару лет.

Когда у меня возникает вопрос о чем-либо, я быстро обращаюсь к ChatGPT и/или Google Gemini, среди прочих.

Чатботы на основе LLM имеют свои недостатки, в том числе иногда предоставляют неверную информацию. Но в большинстве своем я считаю их чрезвычайно полезными для экономии времени.

Однако, когда я использую эти ИИ-чатботы, я почти никогда не взаимодействую с ними с помощью голоса.

Я часто нахожусь в присутствии других людей, будь то моя семья дома или случайные незнакомцы на улице или в кафе, где я работаю.

В результате я всегда ввожу свои запросы к ИИ. Но использование системной клавиатуры iOS иногда может показаться неуклюжим и замедлить меня. Было бы гораздо быстрее и проще просто произносить свои запросы, если бы не социальный дискомфорт.

Но если будущая версия Siri сможет понимать движения лица и еле слышные шепоты, это откроет целый новый мир возможностей для ИИ.

Находясь дома или в пути, я смогу почти бесшумно говорить с Siri, и она будет меня понимать. Не нужно сначала доставать свой iPhone. Не нужно вводить вопрос.

Я смогу использовать помощь ИИ всякий раз, когда она мне понадобится, — и при этом оставаться вовлеченным в происходящее вокруг меня, не становясь «тем парнем», который разговаривает сам с собой вслух.

Существует много вопросов о том, как это на самом деле может работать. Я предполагаю, что будут задействованы AirPods с камерами и/или Apple Glasses.

Если будущее вычислений включает в себя постоянно присутствующие ИИ-чатботы, то технологии Q.ai могут стать их ключевой частью.

Как вы сегодня в основном взаимодействуете с ИИ-чатботами? Кажется ли вам привлекательной технология Q.ai? Дайте нам знать в комментариях.

Лучшие аксессуары для iPhone