Естественные науки
Профессор Савельев утверждает, что если поручить набор работников "искусственному интеллекту"- отбор станет честнее! Но-
, не произойдёт ли так, что, когда нам объявят о внедрении этого "честного отбора" (без кумовства и приёме "по блату") - то этим "искусственным интеллектом" по заказу власти начнут вторгаться в систему и аккуратно "подруливать" те, кто будут отвечать за его обслуживание ?
Для начала я бы с помощью ИИ перетасовал людей одной профессии по географическому принципу, а то едет менеджер на работу через весь город, а ему навстречу точно такой менеджер через весь город на другую работу. То же самое работники складов, бухгалтера, водители ...
среднестатистически может и будет
выигрыш, но с учетом алогичной
природы человека в итоге это проигрыш
просто потому что будут отсеиваться
нестандартные и креативные люди
отличающиеся от среднестатистического
что в итоге обесценит любой процесс
отсутствием какого-либо его развития
выигрыш, но с учетом алогичной
природы человека в итоге это проигрыш
просто потому что будут отсеиваться
нестандартные и креативные люди
отличающиеся от среднестатистического
что в итоге обесценит любой процесс
отсутствием какого-либо его развития
Мунарбек Кубанычбекович
Савельев говорит, что именно нестандартных и КРЕАТИВНЫХ искусственный интеллект и должен будет выявлять для приёма на работу на благо человека и общества !
Невероятно, но факт -- я в чем-то согласен с Гамнитным военом!!! :)
На сегодня есть куча историй о том, как отбор данных, на которых обучается искусственный интеллект, влияет на его "манеру" принятия решений. В узких кругах довольно много шума наделала история с системой, разработанной в Университете Вашингтона. Система должна была отличать волков от собак по фотографиям, но при ее обучении ей "скормили" кучу фотографий волков на снегу. В результате любая картинка со светлым фоном распознавалась системой как волк.
В системах распознавания лиц многократно и в разных местах случался один и тот же глюк -- систему обучали на лицах, типичных для места, где ее планировалось использовать, и в результате она оказывалась не в состоянии отличать друг от друга нетипичные лица, особенно если у них необычный для этого места цветом кожи. Ходячая хохма в этом плане -- китайские системы, которые принципиально не в состоянии отличать друг от друга темнокожие лица (а некоторые системы даже не воспринимают их как лица). Их буквально этому не учили...
На сегодня есть куча историй о том, как отбор данных, на которых обучается искусственный интеллект, влияет на его "манеру" принятия решений. В узких кругах довольно много шума наделала история с системой, разработанной в Университете Вашингтона. Система должна была отличать волков от собак по фотографиям, но при ее обучении ей "скормили" кучу фотографий волков на снегу. В результате любая картинка со светлым фоном распознавалась системой как волк.
В системах распознавания лиц многократно и в разных местах случался один и тот же глюк -- систему обучали на лицах, типичных для места, где ее планировалось использовать, и в результате она оказывалась не в состоянии отличать друг от друга нетипичные лица, особенно если у них необычный для этого места цветом кожи. Ходячая хохма в этом плане -- китайские системы, которые принципиально не в состоянии отличать друг от друга темнокожие лица (а некоторые системы даже не воспринимают их как лица). Их буквально этому не учили...
Мунарбек Кубанычбекович
но обучение распознанию лишь дело времени .
вопрос был в другом- не начнут ли рулить компьютером заинтересованные?
вопрос был в другом- не начнут ли рулить компьютером заинтересованные?
Александр Беленко
Это всё проблемы дурацких нейросетей, которые больше механизм чем интеллект. А смысл внедрения новой системы в создании ощущения, будто всё справедливо и решается независимо от власти. Так с демократией было.
это зависит от того как этот интеллект запрограммировать
А что вирус нельзя запустить в систему?
тогда ИИ будет выбирать честно только по блату)))
тогда ИИ будет выбирать честно только по блату)))
Да, уже сейчас можно выбрать работника
по тесту на компьютере, но на работе может оказаться,
что человек не совсем подходит к этой работе.
Думаю, надо вводить оплачиваемый пробный период, сроком 1-3 месяца.
по тесту на компьютере, но на работе может оказаться,
что человек не совсем подходит к этой работе.
Думаю, надо вводить оплачиваемый пробный период, сроком 1-3 месяца.
Мунарбек Кубанычбекович
Владельцы часто фирм КИДАЮТ сотрудников, взятых на пробный период!
Сергей Брагин
Думаю, что пробный период должен оплачиваться наперёд
и пусть тогда богатая фирма
судится с нерадивым сотрудником, а не наоборот сознательный,
но бедный сотрудник с богатой фирмой. Тогда фирмы будут стараться
лучше подбирать сотрудников и перестанут их "кидать".
и пусть тогда богатая фирма
судится с нерадивым сотрудником, а не наоборот сознательный,
но бедный сотрудник с богатой фирмой. Тогда фирмы будут стараться
лучше подбирать сотрудников и перестанут их "кидать".
Похожие вопросы
- Тест <<Что такое искусственный интеллект? >>
- Посоветуйте научные статьи на тему: Искусственный интеллект
- Уважаемые ученые... Есть такой проект. Геном Человека.. Профессор Савельев не раз говорил, что проект этот для распила..
- В чем основные проблемы построения искусственного интеллекта? Видел картинки: блок управления, блок памяти, ..
- откуда у искусственного интеллекта возникнут собственные желания?
- что будет "чувствовать" искусственный интеллект.. (помогите решить головную боль. хоть какую-нибудь инфу. в web нет ничего)
- Овечка Долли была создана искусственно. У овец есть интеллект. Думаете ли вы, что у Долли искусственный интеллект?
- А искусственный интеллект войдет как продолжение эволюции, если он станет разумным? Или вершина эволюции человек?
- Вопрос про искусственный интеллект (внутри)
- Что нужно для создания искусственного интеллекта и искусственной личности ?