Интернет

Почему яндекс и прочие компании не хотят ставить реальные нейронки на голосовых ассистентов?

По сути это нельзя аргументировать тем что нейронная сеть может выдать что-то неадекватное, ведь к примеру та же самая LaMDA от гугл которую уже юзают на character.ai вполне себе цензурирована и даже отдалённо не будет общаться на непристойные темы, сохраняет нейтралитет в политике и имеет "эмпатию". Вариант с нехваткой мощностей тоже отпадает. Я лично не могу найти логический ответ на этот вопрос, ведь понимание ботом смысла беседы наоборот является более выгодным вариантом для компании. Выше упомянутая LaMDA способна выдать тип твоей личности после 10 минут общения, угадать пол и поставить тебе диагноз если таковой имеется. Эту информацию уже в тайне можно использовать для собственной выгоды, а создать подобный комплекс нейросетей не проблема для крупных компаний. То есть они по своей воли отказываются от прибыли. Есть ли на это ограничения со стороны закона?
Выходит значит ,что Путин запретил
Александр Чернышов
Александр Чернышов
10 626
Лучший ответ
Алекс Кум Ответ был очевиден. Путин сделал это специально чтобы отменить всех пешек навального и денацифицировать омежко-вассалов мариантеки-Зеленского (подконтрольного Джо Байденом (педофилом) и его сынком-наркоманом, (подконтрольные тайной нацистской группировки, которые уже оторвались на Саакашвили)) путём немедленного сокращения их доступа к той, или иной персональной информации свободных граждан Российской Федерации. Отдохнуть бы ему, нельзя столько о народе думать. Третий приход сына божьего
а какая прибыль? и где пруфы того что ламбда работает? очередной вброс. для очередной веры. в "технологии".
Юрец Дикий
Юрец Дикий
78 119
Алекс Кум LaMDA уже затестить можно если в бетку от гугл вступить. И плюс как я и писал, её юзают на character.ai. Если английский знаешь, сам можешь прочекать. Там ИИ диалог более чем понимают, вплоть до метафор и тонких шуток. С чего ты вообще взял что это "вброс"? Про DALL-E 2 тоже так говорили, но сейчас уже каждый может за $15 к ней доступ получить
В будущем, как нам кажется, люди будут взаимодействовать с устройствами с помощью голоса. Уже сейчас приложения распознают точные голосовые команды, заложенные в них разработчиками, но с развитием технологий искусственного интеллекта они научатся понимать смысл произвольных фраз и даже поддерживать разговор на любые темы. Сегодня мы расскажем читателям Хабра о том, как мы приближаем это будущее на примере Алисы – первого голосового помощника, который не ограничивается набором заранее заданных ответов и использует для общения нейронные сети.
Несмотря на кажущуюся простоту, голосовой помощник – один из самых масштабных технологических проектов Яндекса. Из этого поста вы узнаете, с какими сложностями сталкиваются разработчики голосовых интерфейсов, кто на самом деле пишет ответы для виртуальных помощников, и что общего у Алисы с искусственным интеллектом из фильма «Она».
На заре своего существования компьютеры в основном применялись на крупных научных или оборонных предприятиях. Про голосовое управление тогда размышляли лишь фантасты, а в реальности операторы загружали программы и данные с помощью куска картона. Не самый удобный способ: одна ошибка, и все нужно начинать сначала.
С годами компьютеры становятся доступнее и начинают применяться в компаниях поменьше. Специалисты управляют ими с помощью текстовых команд, вводимых в терминале. Хороший, надежный способ – он применяется в профессиональной среде и по сей день, но требует подготовки. Поэтому когда компьютеры стали появляться в домах обычных пользователей, инженеры принялись искать более простые способы ваимодействия машины и человека.

В лаборатории компании Xerox зарождается концепция графического интерфейса WIMP (Windows, Icons, Menus, Point-n-Click) – массовое применение она нашла в продуктах уже других компаний. Заучивать текстовые команды для управления домашним компьютером больше не требовалось — им на смену пришли жесты и клики мышью. Для своего времени это было настоящей революцией. И теперь мир приближается к следующей.
Теперь почти у каждого в кармане лежит смартфон, вычислительных мощностей которого достаточно, чтобы посадить корабль на Луну. Мышь и клавиатуру заменили пальцы, но ими мы совершаем все те же жесты и клики. Это удобно делать, сидя на диване, но не в дороге или на ходу. В прошлом для взаимодействия с компьютерными интерфейсами человеку приходилось осваивать язык машин. Мы верим, что сейчас пришло время научить устройства и приложения общаться на языке людей. Именно эта идея легла в основу голосового помощника Алиса.
У Алисы можно спросить [Где поблизости выпить кофе?], а не диктовать что-то вроде [кофейня улица космонавтов]. Алиса заглянет в Яндекс и предложит подходящее место, а на вопрос [Отлично, а как туда пройти?] — даст ссылку на уже построенный маршрут в Яндекс.Картах. Она умеет отличать точные фактовые вопросы от желания увидеть классическую поисковую выдачу, хамство – от вежливой просьбы, команду открыть сайт – от желания просто поболтать.
Мы научили машину отвечать на наши вопросы, вести диалог в контексте определённых сценариев и решать задачи пользователя. Это хорошо, но можно ли сделать ее менее бездушной и наделить человеческими свойствами: дать ей имя, научить рассказывать о себе, поддерживать разговор на свободные темы?


В индустрии голосовых помощников эта задача решается с помощью редакторских ответов. Специальная команда авторов берет сотни наиболее популярных у пользователей вопросов и пишет по несколько вариантов ответов на каждый. В идеале это нужно делать в едином стиле, чтобы из всех ответов складывалась цельная личность помощника. Для Алисы мы тоже пишем ответы – но у нас есть кое-что еще. Кое-что особенное.
AW
Alone Wolf
176