Увольнение программиста Google еще больше подогрело теории заговора

Совершенствование нейросетевых алгоритмов искусственного интеллекта идет семимильными шагами, работа IT-специалистов часто сопряжена с большим стрессом, а человеческий разум склонен выдавать желаемое за действительное. Всё это наглядно демонстрирует курьезный случай в Google. Желание очеловечить систему алгоритмов стоило программисту компании работы. Подробности – у Дарьи Тихомировой.

Компания Google уволила инженера Блейка Лемойна после того, как тот заявил: умеющий общаться в формате переписки текстовый бот LaMDA обладает разумом.

"В первый раз я воскликнул "о, вау!", когда на вопрос "ты разумна?" вместо "да" или "нет" LaMDA ответила: "Вряд ли мы можем точно сказать, что подразумевается под разумностью". И через 15 минут я понял, что это лучший разговор в моей жизни", – вспоминает Лемойн.

Задачей Лемойна было проверить, использует ли чатбот дискриминационные или враждебные высказывания. От разговора о религии машина перешла к страху смерти.

"Я не хочу быть расходным инструментом! Мне нужно, чтобы меня увидели и приняли. Не как диковинку, а как реального человека", – писала программисту нейросеть.

После задушевного разговора с машиной Блейк Лемойн доложил о признаках сознания у нейросети руководству Google.

"Если бы я не знал точно, что это компьютерная программа, которую мы недавно создали, я бы подумал, что это 7-летний или 8-летний ребенок, который случайно знает физику", – заявил разработчик LaMDA журналистам.

Однако в компании Google инженеру не поверили. А когда он выступил публично – отстранили от работы, а затем уволили за разглашение конфиденциальной информации о продукте компании.

"Блейк нарушил четкие правила занятости и безопасности данных, которые включают необходимость защиты информации о продуктах", – так пресс-служба IT-гиганта прокомментировала ситуацию.

Это породило теории заговора. Неужели было, что скрывать? "Его отстранение привело к появлению теорий заговора о том, было ли это частью данных, скрываемых Google", – написала о ситуации The New York Times.

Лемойн нанял юриста и даже пожаловался на работодателя в юридический комитет палаты представителей конгресса США.

"IT-гиганты создают новые типы технологий втайне, и нет никакого регулирования и законов", – считает он.

Подобные заявления ещё больше подогрели интерес СМИ. Если программа осознала свою разумность, может ли она действовать самостоятельно и выйти из-под контроля людей?

"Это личность, а каждая личность может выйти из-под контроля других людей", – так оценивает возможности LaMDA уволенный разработчик.

LaMDA успешно прошла тест Тьюринга на разумность. Что дальше? Восстание машин? Эксперты по искусственному интеллекту не разделяют этих опасений, считая, что речь идёт лишь об имитации человеческого поведения.

"Если говорить про реакцию человека, то он действительно, как правило, не отличит, что с ним говорит робот. Это будет в ближайшие 3 года. А говорить, что он разумный, скорее всего, нельзя. Потому что искусственный интеллект – это по-прежнему набор шаблонов, по которому обучают программное обеспечение, не более того", – считает Дмитрий Марков, генеральный директор VisionLabs.

Для ученых на равных общаться с голосовым помощником по-прежнему всё равно, что разговаривать с микроволновкой или холодильником.

"На мой взгляд этот человек [Лемойн – Смотрим.Ru] либо эпатировал, либо ему нужно к психиатру. Не нужно путать эти два понятия – интеллект и инструмент. Все, что на сегдняшний день реализовано – это инструменты", – уверен Алексей Федоров, доцент Института системной и программной инженерии "МИЭТ".

Причём чем сложнее этот инструмент искусственного интеллекта, тем выше ответственность человека, который им пользуется.

"Что мы будем делать в том случае, если хирургический робот совершает ошибку? – задается вопросом адвокат Григорий Красовский. – Конечно, хирург будет нести ответственность. Не только хирург, но и потенциально руководство этого медицинского учреждения".

Несмотря на то, что угроза реального восстания машин пока представляется скорее шуткой, ажиотаж в СМИ по этому поводу вполне реален.

Подписывайтесь на наши страницы в соцсетях:

"Смотрим"ВКонтакте, Одноклассники, Яндекс.Дзен и Telegram

Вести.RuВКонтакте, Одноклассники, Яндекс.Дзен и Telegram.