Искусственный интеллект когда-нибудь может стать личностью

Недавно сотрудник Google Блейк Лемойн наделал шума, объявив, что при тестировании чат-ботов LaMDA обнаружил у них признаки самосознания.

С точки зрения Лемойна, такие программы ощущают себя личностями, а не функционируют на «автомате». Однако, коллеги инженера с ним не согласились, и в итоге он потерял работу в корпорации. Неужели искусственный интеллект и впрямь обладает личностными характеристиками, или Лемойна не зря уволили?

Собака, осьминог или попугай?

Человек способен не только думать, но также чувствовать, мечтать и, самое главное — осознавать себя как личность. То есть, мы понимаем, что являемся Петей или Машей, а вот что касается животных, то далеко не все представители биологических видов способны хотя бы узнавать себя в зеркале.

Лемойн уверяет, что, судя по общению с LaMDA, программу невозможно отличить от живого человека. Но другие исследователи считают, что это просто имитация человеческого мышления.

Дело в том, что алгоритм проходил обучение на текстах, авторами которых являются люди. Большие языковые модели (LLM), на которых базируются такие программы, используют «достраивание» шаблона. Ознакомившись со множеством текстовых образцов, они могут легко предсказать, о чем пойдёт речь дальше, и когда они это демонстрируют, то смотрится очень впечатляюще.

Эрик Бринолфссон, профессор из Стэнфордского института человеко-ориентированного ИИ, комментирует:

«Утверждение о том, что базовые модели разумны — это эквивалент собаки, которая услышала голос из граммофона и подумала, что хозяин находится внутри».

В свою очередь, лингвист Эмили Бендер сравнивает языковые модели с осьминогом, наткнувшимся на дне океана на подводный телеграфный кабель. Он слушает сообщения, но не знает, о чём идёт речь. Однако, со временем он улавливает закономерности и паттерны, и учится прогнозировать ответы. В конце концов, осьминог перерезает кабель и начинает сам отвечать на сообщения, по-прежнему не осознавая их смысла. А те, кому он отвечает, думают, что на другом конце кабеля живой человек. Они не видят разницы.

Также Бендер и её коллеги приводят метафору попугая: эта птица способна повторять за людьми слова и целые предложения, но это не значит, что она разумна так же, как и мы.

Символы, логика и реальность

Но, всё же, вывод не так очевиден.

  • Во-первых, по словам Лемойна, LaMDA не представляет собой языковую модель в чистом виде, это лишь часть некоей системы.
  • Во-вторых, она отличается от предыдущих алгоритмов, и способна не только давать ответы на вопросы, но и объяснять их.

Ещё один критик взглядов Лемойна, Гари Маркус, утверждает, что языковые модели не в состоянии работать с символами, слова для них не имеют никакого отношения к реальности. Они лишь распознают и завершают паттерны благодаря встроенной в алгоритм логической структуре. Тогда как вице-президент Meta Ян Лекун полагает, что машина может научиться оперировать символами даже в том случае, если отсутствуют чёткие логические правила. Кстати, люди эти правила усваивают лишь в процессе познания окружающего мира.

Сознание — продукт эволюции?

Вице-президент Google Блез Агуэра-и-Аркас тоже вступал в общение с LaMDA и пришёл к заключению, что алгоритм манипулирует своими собеседниками, генерируя ответы и выбирая наилучший для визави.

«Говоря иначе, здесь может присутствовать настоящий интеллект, но не в том смысле, как утверждает Лемойн, а в том, как ИИ моделирует себя в соответствии с представлениями Лемойна, то есть не имеет собственных стремлений и взглядов», — констатирует Агуэра-и-Аркас.

Любопытно, что он в своих рассуждениях ссылается на Майкла Грациано, профессора неврологии и психологии в Принстоне, который считает, что сознание возникло у людей только в процессе эволюции: сначала люди научились эмпатии, то есть создавать модели разума окружающих, а потом уже — применять это моделирование к самим себе. Не исключено, что искусственный интеллект рано или поздно ждёт то же самое.

Ирина Шлионская

Источник