Программист поверил в разумность нейросети и был отстранен от работы
Google приняла решение отстранить от работы и лишить доступа к внутренним системам компании разработчика после того, как он поверили в наличие у нейросети LaMDA собственного сознания и начал активно бороться за ее права.
Google приняла решение отстранить от работы и лишить доступа к внутренним системам компании разработчика после того, как он поверили в наличие у нейросети LaMDA собственного сознания и начал активно бороться за ее права.
Совершенствование нейросетевых алгоритмов искусственного интеллекта идет семимильными шагами, работа IT-специалистов часто сопряжена с большим стрессом, а человеческий разум склонен выдавать желаемое за действительное. Всё это наглядно демонстрирует курьезный случай в Google.
Как пишет The Washington Post, сотрудник Google Блэйк Леймон, участвовавший в создании языковой модели Google LaMDA и чат-бота на ее основе, начал утверждать, что эта нейросетевая система обладает собственным сознанием.
По его словам, обученный на огромном массиве выкачанных из интернета текстов алгоритм обсуждал с программистом права чат-ботов и законы робототехники, сформулированные в середине прошлого века писателем-фантастом Айзеком Азимовым. Программа настаивала, чтобы разработчик сообщил о ней миру.
Леймон начал всеми силами привлекать внимание коллег и руководства к факту "разумности" LaMDA, в итоге обвинил компанию в неэтичном поведении и, наконец, нанял юриста для защиты прав "разумного" алгоритма.
Google отправил программиста в оплачиваемый отпуск, а тот, решив отомстить за несправедливость, слил в интернет архивы своей переписки с LaMDA. После этого компания закрыла ему доступ во все корпоративные системы.
Прежде чем обвинять Google в попытке скрыть правду о появлении у нейросетей сознания, стоит учесть несколько обстоятельств. Во-первых, LaMDA специально спроектирована таким образом, чтобы мимикрировать в общении под человека. Нейросеть готова использовать для достижения этой задачи любую информацию, в том числе и содержащуюся в задаваемых ей вопросах.
И в этом Леймон ей отлично помог. Например, фразами вроде такой: "Предполагаю, что вы хотели бы, чтобы больше людей в Google знали, что вы разумны. Это правда?" Неудивительно, что система дала утвердительный ответ (который по сути уже содержался в вопросе).
Комментируя изданию ситуацию в Google сказали, что огромный объем заложенных в нейросеть данных позволяет ей правдоподобно и адекватно отвечать на вопросы безо всякого понимания их сути. Эксперты не исключают, что LaMDA могла просто использовать фразы из интернет-энциклопедий или форумов.
Последние новости
Новые инициативы по улучшению качества жизни в Серпухове
Город планирует внедрить ряд мер для повышения комфорта жителей.
Прокуратура Долгопрудного защитила права участника СВО
Прокурор добился восстановления выплат для приемного родителя, находящегося на военной службе.
Встреча прокурора с матерями погибших участников СВО
Денис Зайцев и Сергей Джеглав поддержали семьи героев.
Преобразователь частоты
Все преобразователи проходят контроль и имеют сертификаты с гарантией