Девятнадцать исследователей утверждают, что искусственный интеллект неразумен — пока нет

Есть анекдот о дочери, которая спрашивает своего папу, почему он так тихо разговаривает по дому. “Потому что везде есть искусственный интеллект, который слушает то, что мы говорим”, – отвечает папа. Дочь смеется, отец смеется. И Алекса смеется.

Искусственный интеллект, похоже, действительно внедряется во все новые и новые аспекты нашей жизни. И поскольку искусственный интеллект зарабатывает эквивалент миллиона докторских степеней, поглощая триллионы бит данных и, в свою очередь, генерируя ответы с привлекательным тоном и поведением, которые звучат так же просто и по-человечески, как у вашего любимого старого профессора колледжа, некоторые чувствуют себя вынужденными спросить: становятся ли компьютеры разумными?

Циник ответил бы: “Конечно, нет. Компьютеры могут за секунды решать проблемы, на решение которых у человечества ушли бы поколения, но они не могут чувствовать любовь и боль, не могут видеть и ценить луну и звезды, не могут чувствовать запах кофе, который мы проливаем на клавиатуру”.

Но другие предполагают, что нам нужно более четко определить то, что мы привыкли понимать как разумное. Могут ли существовать различные степени сознания в том виде, в каком мы его понимаем? Пересекаются ли компоненты субъективного опыта у людей, животных и интеллектуальных машин?

Девятнадцать нейробиологов из Соединенных Штатов, Англии, Израиля, Канады, Франции и Австралии исследовали этот вопрос в отчете, опубликованном на сервере препринтов arXiv 22 августа.

Ведущий ученый OpenAI, разработавшей ChatGPT, предположил в прошлом году, что продвинутые сети искусственного интеллекта могут быть “слегка сознательными”. Годом ранее ученый Google был уволен после того, как заявил, что ЛаМДА, предшественник чат-бота Bard, обладает разумом.

Но после тщательного анализа многочисленных теорий сознания авторы доклада “Сознание в искусственном интеллекте: выводы из науки о сознании” пришли к выводу, что системы искусственного интеллекта не обладают сознанием; по крайней мере, пока.

Однако они наметили подходы, которые не мешало бы рассмотреть будущим исследователям.

“Наш анализ показывает, что ни одна из существующих систем искусственного интеллекта не обладает сознанием, – сказал Патрик Батлин, ведущий автор отчета, – но также предполагает, что нет очевидных технических барьеров для создания систем искусственного интеллекта, удовлетворяющих этим показателям”.

Они сузили круг теорий сознания до шести, которые, по их словам, являются убедительными индикаторами сознательных сущностей.

Одним из примеров является теория рекуррентной обработки, которая утверждает, что мозг обрабатывает информацию с помощью циклов обратной связи. Благодаря таким циклам мозг может адаптироваться к изменяющимся обстоятельствам, вносить коррективы в восприятие и принимать более обоснованные решения. Такое повторяющееся поведение является ключом к формированию памяти и приобретению новых знаний.

Другой ключевой концепцией является теория высшего порядка, которую некоторые обобщают как “осознание того, что мы осознаем”.

“Теории высшего порядка отличаются от других тем акцентом, который они делают на идее о том, что для того, чтобы психическое состояние было осознанным, субъект должен осознавать, что находится в этом психическом состоянии, и способом, которым они предлагают объяснить это осознание”, – сказал Бутлин.

Третьим фактором является теория глобального рабочего пространства. Это утверждает, что осознание достигается, когда информация становится глобально доступной в мозге. Информация не ограничивается отдельными сенсорными входами, а содержится в глобальном центре, доступном для различных внутренних когнитивных процессов.

Предлагаемые инструменты для сдерживания чувствительности “предлагают нам лучший из доступных в настоящее время методов оценки вероятности того, что системы искусственного интеллекта будут сознательными”, – сказал Бутлин.

“Мы публикуем этот отчет отчасти потому, что серьезно относимся к возможности того, что сознательные системы искусственного интеллекта могут быть созданы в относительно ближайшей перспективе — в течение следующих нескольких десятилетий”, – сказал Бутлин. “Эти перспективы поднимают глубокие моральные и социальные вопросы”.