Сильный ИИ – не хайп, а фейк. Почему его невозможно создать

Об авторе: Сергей Карелов, IT-эксперт.

С сильным ИИ получается, как с термоядерным синтезом. Его взрывной вид (самую мощную в мире бомбу) сделали почти 70 лет назад. Тогда же собрались освоить управляемый вид (построить термоядерные электростанции). Но не судьба. Спустя почти 70 лет ситуация, как и с сильным ИИ. Может, после 2045 года что-то появится. А может и нет.

На тему самой грандиозной техноаферы, обещающей создание сильного ИИ, мною написано предостаточно, см. здесь и здесь. Казалось бы, все сказано.

Однако опубликованная в Nature новая работа проф. Рагнара Фьелланда (Ragnar Fjelland) «Почему ИИ общего назначения не будет создан» несомненно стоит прочтения, по двум причинам.

1. Проф. Фьелланд – знаменитый норвежский физик и философ, – не просто прокричал ещё раз «а король-то голый!» с высокой научной трибуны журнала Nature. Фьелланд на современном уровне переформулировал знаменитую аргументацию невозможности создания сильного ИИ, опубликованную Хьюбертом Дрейфусом (Hubert Dreyfus) более полувека назад в работе «Алхимия и искусственный интеллект».

2. Современная трактовка Фьелланда ещё более радикальная, чем аргументация Дрейфуса (равно как и автора этого поста). Фьелланд препарировал вопрос так, что показал принципиальную невозможность создания сильного ИИ, не просто в обозримом будущем, а вообще никогда.

  • Компьютеры, у которых нет тела, нет детства и нет культурной практики, вообще не могут приобрести интеллект (ни-ко-гда) – это тупик.
  • И это не просто тупик, а весьма опасный тупик. Вера в возможность реализации сильного ИИ вредна, т.к. переоценивает возможности технологий и недооценивает возможности людей. Результатом этой веры во многих случаях будет замена того, что хорошо работает, на то, что работает хуже.

Приведу здесь лишь несколько важных соображений из аргументации Фьелланда, развивающей аргументацию Дрейфуса.

А. Компьютерная мощь никогда не разовьётся в человеческий разум, потому что они фундаментально различны. Человеческое мышление в основном неалгоритмично. Это относится к важнейшим качествам разума: благоразумие – способность принимать правильные решения в конкретных ситуациях, и мудрость – способность видеть целое.

Б. Важная часть человеческих знаний является неявными (невербализуемыми – tacit) знаниями («неявными знаниями» – ред.). Эти знания не могут быть сформулированы в компьютерной программе. Надежды, что обучение нейронных сетей, позволяющее им учиться без явных инструкций, решит проблему неалгоритмических способностей и неявных знаний, – ошибочны. В равной степени можно пытаться научить ребёнка кататься на велосипеде, не имея его, и лишь используя инструкцию.

В. Вера в обретение бессмертия путём создания супер-ИИ (техносингулярность и т. д.), является выражением новой религии, выраженной через инженерную культуру (см. также мой предыдущий пост). Зачастую утверждения, что компьютеры способны дублировать человеческую деятельность, крайне упрощены и искажены. Проще говоря: переоценка технологий тесно связана с недооценкой людей.

Г. Попытки строить ИИ лишь на основе корреляций, а не причинности – тупиковы. Причинность – важнейшая часть человеческого мышления. Компьютеры не могут справиться с причинностью, потому что они не могут вмешиваться в мир. Их просто нет в мире, потому что они не воплощены. Они не являются агентами, способными своими действиями что-либо менять в своем окружении. До тех пор, пока компьютеры не станут действующими агентами, принадлежащими к определённой культуре, они не приобретут человекоподобный интеллект. Что, впрочем, не помешает использовать их в задачах автоматизации.

ИТОГО. Мы являемся телесными и социальными существами, живущими (чувствующими, думающими и действующими) в материальном и социальном мире. Наш разум – основной механизм, позволяющий это. Ну а компьютерный ИИ (слабый или сильный) вообще не имеет к этому отношения. Раньше это был хайп, теперь – чистый фейк.

Фото (с) Стоян Васев

См. также «Это не смертельно, но тяжело и очень плохо» 

Источник: Telegram-канал «Малоизвестное интересное» 

Следите за нашим Телеграм-каналом, чтобы не пропускать самое важное!

Поделиться: