Об авторе: Анатолий Шалыто, профессор, д.т.н., Университет ИТМО
Расскажу, что думают по этому поводу несколько известных учёных.
1. Илья Суцкевер – выдающийся специалист в области ИИ. Он родился в Горьком в 1986 году. Когда ему было 16 лет, семья переехала в Канаду. Илья поступил в Университет Торонто. В 2005 году он стал бакалавром математики и компьютерных наук, в 2007 году – магистром, в 2012 году – PhD (Sutskever I. Training Recurrent Neural Networks. PhD thesis, Univ. Toronto). В этом же году Илья был на двухмесячной стажировке как постдок в Стэнфорде, где работал под руководством признанного авторитета в машинном обучении – Эндрю Ына. Здесь список публикаций Суцкевера. На 3 декабря 2025 года у него индекс Хирша – 103, а число цитирований – 723 725.
С конца 2012 по начало 2013 года он соучередитель компании DNNResearch (аббревиатура DNN происходит от словосочетания «Глубокие (Deep) Нейронные (Neural), Сети (Networks)), учреждённой с Джеффри Хинтоном и Алексом Крыжевским. С марта 2013 по 2015 год – Илья научный сотрудник в подразделении Google Brain (после покупки DNNResearch компанией Google). С конца 2015 по 2023 год – сооснователь и главный научный компании OpenAI. В 2023 году он становится в OpenAI соруководителем нового проекта Superalignment (Суперинтеллект), ориентированного на обеспечение безопасности ИИ.
К осени 2023 года между Сэмом Альтманом (ещё одним сооснователем OpenAI) и Суцкевером возник конфликт. Илья считал, что компания движется слишком быстро, игнорируя риски, а Сэм хотел быстро использовать открывшееся окно возможностей. 17 ноября 2023 года Совет директоров компании, где Суцкевер был ключевой фигурой, уволил Альтмана, за которого заступилось 700 из 770 сотрудников, и через пять дней Сэм вернулся.
Конфликт закончился тем, что 15 мая 2024 года Суцкевер ушел. При этом он считал, что через какое-то время из-за отсутствия новых данных в Интернете предобучение закончится, и придётся перейти к синтетическим данным, но это только несколько улучшит значения метрик, не обеспечив нового качества, в отличие от того, как это было раньше. Похоже, это и произошло при выпуске в июле 2025 года ChatGPT-5.
19 июня 2024 года Суцкевер объявил о запуске нового стартапа – Safe Superintelligence (SSI), что на русский язык переводится как «Безопасный Суперинтеллект». При этом Илья подчеркнул, что первым его продуктом станет безопасный суперинтеллект, который уже на базовом уровне не сможет причинить масштабный вред человечеству. Суцкевер заявил, что его проект «будет полностью изолирован от внешнего давления, связанного с необходимостью иметь дело с большим и сложным продуктом и необходимостью погрязнуть в конкурентной борьбе».
В сентябре 2024 года стартап привлёк 1 миллиард долларов инвестиций при оценке компании в 5 миллиардов, а в апреле 2025 года он получил ещё два миллиарда долларов инвестиций при оценке компании в 32 миллиарда. Это произошло при том, что компания не участвует в гонке моделей, в ней работает всего 50 человек и у неё даже нет прототипа, а первые результаты она собирается получить не ранее 2027 года, что является вечностью в мире ИИ сегодня. В июле 2025 года Илья, оставаясь главным научным сотрудником, стал генеральным директором SSI.
Последнее связно с тем, что в начале июня 2025 года стало известно, что Марк Цукерберг создаёт в своей компании лабораторию суперинтеллекта. Это объясняется тем, что он разочарован отсутствием в его компании существенного прогресса в области разработки ИИ. Поэтому он, в частности, сделал предложение по покупке компании SSI по оценке, указанной выше. Илья отверг это предложение, но один из соучередителей компании и её генеральный директор Дэниел Гросс был согласен. Сделка не состоялась, но Цукерберг нанял Гросса на работу.
Суцкевер считает, что следующий качественный скачок в развитии ИИ наступит, когда модели, созданные учёными, смогут делать «новую науку» – самостоятельно ставить гипотезы и получать нетривиальные научные результаты. Он полагает, что в части создания безопасного суперинтеллекта на первый план выходит мысль, что безопасность и способности – единая техническая научная задача: нельзя сделать безопасный ИИ, не понимая его научно, и нельзя строить сверхмощные системы, игнорируя строгий научный анализ их надёжности.
По мнению Суцкевера, практически полезные научные исследования в области глубокого обучения проходили в основном с 2012 по 2020 год, когда появилось достаточно вычислительных мощностей. Для подтверждения эффективности этого подхода при распознавании изображений в 2012 году хватило двух простейших GPU типа Nvidia GeForce, а для обоснования целесообразности применения трансформеров в 2017 году – восемь более сложных GPU типа Nvidia P100, arxiv.org/abs/1706.03762 что соответствует двум современным GPU.
Трансформеры в то время были принципиально новой архитектурой нейросетей. Основная идея при их использовании: нейросеть может распределять «внимание» между разными частями текста и учитывать их совместно, а не слово за словом. Трансформер разбивает входные данные на токены, преобразует их в численные векторы (эмбеддинги), осуществляет операции линейной алгебры в слоях сети, а затем декодирует результат в текст, изображение, код. Трансформер обеспечивал распараллеливание. Благодаря применению трансформера первая ChatGPT обучалась не на размеченных данных, а на текстах из Интернета, сама находя закономерности в текстах.
Укажу две статьи, которые, кроме невероятной практической полезности, имели также эффект разорвавшихся бомб в науке, так как они получили огромное число цитирований.
Статья Krizhevsky A., Sutskever I., Hinton G. ImageNet Classification with Deep Convolutional Neural Networks / Proceeding of Advances in Neural Information Processing Systems 25 (NIPS 2012), pp. 1090-1098 из девяти страниц по цитируемости стала одной из самых важных работ в истории информатики – её на 3 декабря 2025 года процитировали 187 813 раз! Технология распознавания изображений на основе глубокого обучения с использованием сверточных сетей и GPU, описанная в статье, стала интеллектуальной основой широкого практического внедрения ИИ.
Статья о трансформерах на десяти с половиной страницах в то время сотрудников Google Vaswani A., Shazeer N., Parmar N., Uszkoreit J., Jones L., Gomez A. N., Kaiser Ł., Polosukhin I. Attention Is All You Need / Proceeding of 31st Conference on Neural Information Processing Systems (NIPS 2017) на указанную выше дату имела ещё больше цитирований – 211 336! Это, видимо, самая цитируемая статья по информатике на Google Scholar.
Эта статья перевернула мир ИИ, так как преодолевала последовательный характер рекуррентных нейронных сетей за счёт использования механизма внимания. В ней было показано, что при использовании этой архитектуры можно обрабатывать огромные массивы данных, что, правда, требует таких же вычислительных мощностей. Эта архитектура в течение длительного времени позволяла успешно проводить масштабирование языковых моделей.
Интересно, что число авторов этой статьи и число GPU, использованных ими в экспериментах, совпадает – их по восемь: видимо, каждый из авторов принёс по одному графическом процессору, и когда они догадались, как их соединить, родился трансформер!
С 2020 по 2025 год была эпоха масштабирования, которая, по мнению Ильи, заканчивается, и для качественного прогресса в развитии ИИ вновь потребуются серьёзные и глубокие научные исследования в условиях, когда вычислительных ресурсов для подтверждения их эффективности, в отличие от прошлых времён, достаточно.
При этом отмечу, что не только эпоха исследований и эпоха масштабирования связана с Суцкевером. В своё время Илья работал над программой, которая после ввода символов (букв и цифр) могла точно предсказывать следующие символы. В обучающую выборку вошли 16 миллионов статей из «Википедии».
Результаты этих исследований были опубликованы в 2011 году в статье Sutskever I., Martens J., Hinton G. Generating Text with Recurrent Neural Networks / Proceedings of the 28th International Conference on Machine Learning (ICML-11). 2011, pp. 1017-1024. Предложенный здесь подход был реализован на графических процессорах (GPU). Подход работал удивительно хорошо. Отмечу, что мозг учится похоже: по данному кадру видео обычно можно предсказать следующий кадр. Так же дело обстоит и со звуками.
Однако широкое практическое применение этого подхода стало возможным только после появления такой архитектуры, как упомянутый выше трансформер. Один из авторов его создания (статья об авторах «трансформера» на русском языке приведена здесь), Илья Полосухин, рассказывает, что сначала на указанную выше статью не обратили большого внимания, и только благодаря Суцкеверу, использовавшему ее в ChatGPT, она «взлетела», в том числе и потому, что аббревиатура GPT расшифровывается как «генеративный предварительно обученный трансформатор».
«Когда вышла статья о трансформерах, вряд ли кто в руководстве Google понял, что она означает, так как в противном случае в 2018 году Google мог создать ChatGPT, так как в то время Google во многих отношениях был далеко впереди всех», – считает Сэм Альтман. Это, видимо, связано с тем, что, как считает Андрей Карпатый, на трансформер с его универсальностью наткнулись случайно.
В 2018 году в OpenAI работы по созданию Chat на основе GPT возглавил Суцкевер. Модели GPT учились на суперкомпьютерах Nvidia, поглощая огромные массивы текстов. При Суцкевере OpenAI выпустил следующие большие языковые модели: ChatGPT-2 (2019 год), ChatGPT-3 (2020 год), ChatGPT-3.5 (ноябрь 2022 года). Последняя из этих моделей умела с поразительной правдоподобностью «разговаривать» на естественном языке. За неделю она имела миллион пользователей. Модель учитывала контекст разговора и одновременно дообучалась, взаимодействуя с пользователем – использовалось «обучение с подкреплением» (Reinforcement Learning).
Когда говорят, что нужно продолжать масштабирование, то сказанное находит поддержку у инвесторов, так как в отсутствии новых идей в области ИИ это позволяет продолжать инвестирование с минимальным риском. Масштабирование – только одно слово, но оно подсказывает людям, что надо делать.
Илья не верит в то, что если бы сейчас всего было бы в 100 раз больше, то всё бы изменилось. Поэтому он считает, что надо вернуться в эпоху исследований, которая, как отмечено выше, будет проходить при наличии больших вычислительных ресурсов.
В Кремниевой долине говорят, что идеи стоят недорого по сравнению с инфраструктурой, но если это так, то почему же ни у кого их нет? На самом-то деле, идеи могут оказаться очень дорогим удовольствием, на которое, в отличие, например, от оборудования, можно потратить много денег и ничего не получить.
В 90-е годы прошлого века были неплохи на идеи, и если бы в то время компьютеры были бы побольше, то, возможно, авторы этих идей смогли бы доказать, что идеи жизнеспособны. Однако до появления GPU это сделать не удавалось, так как исследователи проводили демонстрации на маленьких примерах, которые никого не убеждали в практической полезности предлагаемых идей.
Суцкевер считает, что одним из последствий эпохи масштабирования стало то, что оно высосало весь воздух из «комнаты», и поэтому все стали делать одно и то же, различаясь только размерами инфраструктуры. Дошли до того, что сейчас число стартапов и групп в компаниях, занимающихся ИИ, значительно больше числа идей.
Интересно, что о необходимости возобновления научных исследований в этой области говорил и CEO Microsoft Сатья Наделла (интервал 40:08 – 40:25 здесь).
Кстати, «инсайдеры сообщают, что внутри OpenAI царит пессимизм по поводу законов масштабирования. Многолетняя вера в то, что простое увеличение объёма данных и вычислительной мощности будет автоматически приводить к экспоненциальному росту интеллекта, разбивается о реальность. Интернет-данные для обучения практически закончились, а использование синтетических данных (текстов, написанных самим ИИ) ведёт к коллапсу модели и накоплению ошибок. OpenAI оказалась в ловушке: расходы на обучение растут, а отдача от каждого вложенного доллара стремительно падает».
Интересно, что наряду с наступлением эпохи научных исследований наступила и эпоха борьбы за таланты, которая стала невиданной. Она, как отмечено выше, коснулась и Суцкевера, которого самого тоже хантили.
У Ильи сегодня есть несколько идей, которые они обсуждали, когда ещё решали проблему обобщений. Эта проблема в ИИ (Generalization Problem) – одна из центральных и наиболее трудных в современном машинном обучении. Она касается того, насколько хорошо модель, обученная на данных из одной выборки, способна корректно работать на новых для неё данных.
Илья считает, что причина отсутствия разнообразия в ИИ сегодня связана с тем, что модели прошли предварительное обучение на одних и тех же наборах данных. Поэтому все предобученные модели одинаковы. Теперь, когда начинает использоваться обучение с подкреплением и постобучение, в ИИ может появиться некоторое разнообразие, если разные исследователи будут применять разные методы обучения.
Суцкевер также считает интересным самообучение, при котором внешние данные могут не использоваться, но этот подход полезен только для определённых систем, связанных, например, с соревнованиями. Илья не исключает, что на продолжительное время модели, натренированные для определённых областей применения, могут задержать развитие универсальных моделей. «Когда репутация ChatGPT, как монолита, дала трещину, рынок моментально отреагировал фрагментацией. Пользователи, которые раньше по инерции использовали один инструмент для всего – от написания кода до поиска рецептов, – начали массово мигрировать на специализированные платформы».
На вопрос, как он оценивает идеи в ИИ, учитывая то, что занимался самыми важными вопросами в этой области, Илья ответил: «Меня всегда направляет эстетика того, каким должны быть идеи в ИИ, когда я думаю о людях. Оценивая идею искусственного нейрона, я считаю, что она была правильной, так как вдохновлена организацией мозга. Мы думаем, что нейроны очень важны, так как их очень много, и поэтому кажется, что это не случайно. Потом возникла идея, что нужно какое-то локальное правило, которое будет изменять связи между ними, так как кажется очевидным, что это же происходит в мозге. Потом появилась правильная идея, что нейронная связь должна учиться на опыте. Я на всё на это смотрю с разных сторон и ищу простоту, красоту, элегантность и вдохновение, которые должны существовать одновременно, отвергая при этом уродство. И чем больше положительных свойств Вы видите в идее, тем больше можете быть уверены в своих убеждениях, которые будут поддерживать Вас, когда результаты экспериментов будут противоречить тому, что было Вами задумано. При этом Вы сможете определить, была ли у Вас ошибка или Вы выбрали неправильное направление исследований».
Суцкевер предполагает в дальнейшем применять не GPU от Nvidia, а специальные тензорные процессоры от Google, имеющие аббревиатуру TPU. Они были разработаны специально для работы с тензорами – математическими объектами, лежащими в основе нейронных сетей. В них вычисления были менее точные, чем у обычных процессоров, но этой точности для нейронных сетей было достаточно. Это позволило резко поднять быстродействие сетей на этих процессорах. Суцкевер, в свое время работая в Google Brain, разрабатывал аппаратную платформу TensorFlow – сравнительно простой инструмент, который позволяет создавать нейросети. Кстати, эту платформу Google использовал для модели с более глубоким, чем раньше «мышлением», Gemini 3 Pro, после появления которой в ноябре 2025 года Сэм Альтман объявил «аврал» в OpenAI для концентрации сил по повышению эффективности ChatGPT.
У Ильи один раз удалось эффективно принять участие в эпохе исследований в области ИИ, и несмотря на то, что Гераклит считал, что «в одну и ту же реку нельзя войти дважды», это может не относиться к эпохам исследований, и будем надеяться, что Илья решит ту невероятно трудную задачу, которую он перед собой поставил!
2. Суцкевер далеко не одинок в своих взглядах на дальнейшее развитие ИИ. «Лауреат премии Филдса Станислав Смирнов считает, что Тьюринг дал свою оценку появления сильного ИИ в 2000 году, сопоставив рост памяти компьютеров с объёмом Британской энциклопедии. Однако как учёный Станислав не знает, когда появится сильный ИИ, и предполагает, что масштабирование может ни к чему принципиально новому не привести.
Он задал вопрос: «Нужна ли новая наука для ИИ?» — и в качестве ответа рассказал о том, что паровозы строили до появления термодинамики. Они неплохо ходили, и с них началась индустриальная революция. Однако до появления термодинамики паровозы часто взрывались. Когда термодинамика появилась как наука, они перестали взрываться, а кроме того, были созданы дизельные и бензиновые двигатели.
Смирнов предположил, что для появления сильного ИИ тоже будет нужна новая математика. Но какая? Геометрия, статистическая физика, анализ Фурье? Мы не знаем, что будет нужно, и поэтому необходимо учить математику, чтобы знать, что в ней развивать в том случае, если это понадобится для развития ИИ».
То, насколько сложна математика, применяемая в ИИ, можно понять, просмотрев видео «Самая сложная модель из тех, что мы реально понимаем» (видео с субтитрами на русском языке).
3. Большой специалист по компьютерному зрению и глубокому обучению Фэй-Фэй Ли тоже дальше решила идти своим путем. Под её руководством начали проводиться исследования в области «пространственного интеллекта» (Spatial Intelligence) с использованием датчиков для анализа окружающего мира. В рамках этих исследований Фэй-Фэй Ли стала инициатором создания стартапа World Labs, цель которого — разработка алгоритмов указанной разновидности ИИ, которая способна понимать трёхмерный физический мир.
4. Нечто похожее собирается делать один из отцов глубокого обучения Ян ЛеКун. После многих лет работы у Цукерберга, где он возглавлял работы по ИИ, он запустил стартап «Advanced Machine Intelligence Labs» (Лаборатория передового машинного интеллекта, (AMI Labs). ЛеКун покинул компанию Цукерберга в конце 2025 года, чтобы сфокусироваться на «моделях мира» – ИИ-системах, понимающих физический мир через видео и пространственные данные. Компания предполагает разрабатывать ИИ с постоянной памятью, который способен рассуждать и планировать действия. Этот ИИ сможет применяться в робототехнике и транспорте. AMI Labs ищет 500 миллионов евро инвестиций при оценке в 3 миллиарда евро (около 3,5 миллиарда долларов) до запуска. Предполагаемое место размещения головного офиса стартапа – Париж.
5. Промежуточную позицию в рассматриваемом вопросе занимает ещё один классик ИИ – генеральный директор Google Deep Mind, лауреат Нобелевской премии 2024 года Демис Хассабис.
«Для дальнейшего развития ИИ одного масштабирования будет недостаточно, нужны ещё и инновации, но не простые, а научные. Можно сказать, что примерно 50% наших усилий направлены на масштабирование и 50% — на такие инновации. Я считаю, что для достижения качественного ИИ понадобятся оба эти направления.
Для универсальных моделей остаются вопросы, например, не заканчиваются ли у нас доступные данные. Но и здесь есть способ обхода – синтетические данные, получаемые генерацией. Сегодняшние модели уже достаточно хороши, чтобы начинать генерировать данные самим, особенно в таких областях, как программирование и математика, где можно проверять правильность ответа. В каком-то смысле в этих областях можно производить неограниченное количество данных. Всё это, конечно, исследовательские вопросы».
По мнению Хассабиса, и не только его, дорога к полноценному ИИ лежит через самообучение, которое им удалось обеспечить пока только для игры Go, когда они создали AlpfaZero.
«Я думаю, что наше ключевое преимущество всегда заключалось в том, что мы ставили исследования на первое место. У нас, как и раньше, самая широкая и глубокая исследовательская база. Если оглянуться на последнее десятилетие прорывов, будь то трансформеры, AlphaGo, AlpfaZero и другие достижения, то все они вышли из Google или DeepMind. Кроме того, у нас по сравнению с другими компаниями есть преимущество в виде инфраструктуры мирового класса. И эта комбинация позволяет нам оставаться впереди как в научных инновациях, так и в масштабировании».
В 2017 году вышел большой документальный фильм под названием «AlphaGo», который озвучен на русском языке.
«Я всегда говорю, что если потребуются новые научные инновации, то я бы поставил на нас, как на то место, где это будет сделано так же, как это происходило все предыдущие 15 лет. И я думаю, именно это сейчас и происходит. И мне, если честно, даже нравится, когда ландшафт становится сложнее, потому что тогда уже недостаточно просто инженерии мирового уровня. Хотя невероятно сложно инженерию такого уровня сочетать с наукой мирового уровня, но это как раз то, на чём мы специализируемся».
По его мнению, отсутствие прорывных разработок в сфере ИИ в Китае в данный момент обусловлено не техническими, а ментальными ограничениями, так как там достаточно много талантливых инженеров, но прогресс обычно двигают учёные, а не инженеры, так как «изобрести что-либо в 100 раз сложнее, чем просто копировать, что у них хорошо получается».
Так как Хассабис пришел в мир науки из разработки игр, то его, кроме больших языковых моделей, интересуют и другие направления ИИ, связанные с симуляцией виртуальных миров и созданием роботов.
«Ведь если ты можешь что-то симулировать, то в каком-то смысле ты это и понял. Что модели миров могут дать такое, чего не могут дать языковые модели? Они способны «понимать» очень многое о мире. Честно говоря, они понимают даже больше, чем от них ожидали, так как язык оказался богаче, чем о нём думали. В нём содержится больше информации о мире, чем, возможно, предполагали даже лингвисты. Однако остаётся огромный пласт вещей, связанных с пространственной динамикой, пространственным восприятием, физическим контекстом, в котором мы находимся, и с тем, как это работает на физическом уровне. Сенсорные данные, углы перемещения, запахи и подобные ощущения – всё это сложно или невозможно описать словами, но можно получить из физического мира. Если мы хотим, чтобы робототехника по-настоящему работала, то без такого понимания мира не обойтись. В какой-то момент всё изложенное удастся вернуть на новом уровне в индустрию компьютерных игр.
А как здесь насчёт науки? Можно ли использовать её в этих областях? В науке построение моделей в сложных научных областях просто необходимо, но в них необходимо гарантировать, что использованная физика не правдоподобна, а верна. И это действительно может быть проблемой, и потребовать глубоких научных исследований.
Сейчас в мире идёт большая гонка за выпуск коммерческих продуктов. В таких условиях становится гораздо сложнее параллельно заниматься наукой, но мы стараемся делать и то, и другое. И мне кажется, что у нас получается найти правильный баланс. При этом я считаю, что корни достижений Google DeepMind даже в коммерческих продуктах лежат в наших научных исследованиях. Если бы мы могли продолжать работать так, как работали над AlpfaFold, то сейчас могли бы предъявить не меньшие достижения. В 2024 году на эту тему вышел документальный фильм «The Thinking Game», который озвучен на русском языке.
Мне кажется, что тогда мы действительно использовали научный подход. По крайней мере, таким был мой план 15-20 лет назад, когда почти никто наукой в области ИИ в промышленности ещё не занимался, а мы только начинали, собираясь запускать DeepMind. Люди считали, что работать над ИИ – безумие, но мы верили в это. Наша идея состояла в том, что по мере прогресса мы будем постепенно, шаг за шагом, двигаться к ИИ, очень внимательно относясь на каждом этапе к вопросам безопасности.
По нашему мнению, при этом не нужно было бы ждать появления полноценного ИИ, чтобы технология стала полезной. По пути можно было бы ответвлять части этой технологии и применять их в действительно полезных для общества областях, прежде всего в науке и медицине. Именно это мы и сделали с AlpfaFold, который не является универсальной базовой моделью, но использует многие техники из ИИ, например, трансформеры, и сочетает их с более специфичными методами из конкретной области. Я представлял себе, что будет создано множество таких решений, которые мы бы выпускали в мир так же, как AlpfaFold, а они могли бы привести, например, к лечению рака и другим прорывам параллельно с нашей работой над полноценным ИИ. Это так и будет, но не так быстро, как я предполагал в то время.
Однако наш успех в коммерческой области с Gemini 3 мне тоже нравится. Мы существа, которые делают инструменты, и мы это любим. По какой-то причине у нас есть мозг, который способен понимать науку и заниматься наукой, что само по себе удивительно, и при этом он ненасытно любопытен. Я думаю, именно в этом и заключается суть того, что значит быть человеком. Кажется, что этот вирус во мне был всегда.
В жизни я делаю буквально всё то, о чём когда-либо мечтал. Мы находимся на рубеже науки и прикладной науки и машинного обучения. И очень важно испытывать то чувство опьянения, когда, находясь на границе неизведанного, открываешь что-то новое. И это у нашей потрясающей команды происходит почти каждый месяц, что просто поразительно. Но для меня лично это ещё и то, к чему я готовился всю жизнь. С самого детства это были шахматы, потом компьютеры, потом игры и их разработка, потом нейронауки – всё это вело именно к тому, что со мной происходит сейчас и примерно так, как я себе и представлял.
Мы находимся, возможно, в самой ожесточённой конкуренции, которая вообще когда-либо существовала. Мои друзья инвесторы и венчурные инвесторы, которые были ещё во времена доткомов, говорят, что сейчас всё примерно в 10 раз жёстче и напряжённее. И во многом мне это нравится. Я живу конкуренцией. Я любил её ещё со времён шахмат, но понимаю и надеюсь, что все это понимают, что на кону стоит нечто гораздо большее, чем просто успех отдельных компаний.
Мне точно не помешал бы отпуск, и я бы провёл его, занимаясь наукой. Хотя бы неделя отдыха, даже один день было бы неплохо. Но если серьёзно, моя миссия всегда заключалась в том, чтобы помочь миру безопасно провести ИИ через все проблемы»
В этом тексте рассказано только об очень известных учёных из «клуба несогласных» с масштабированием как основным путём развития ИИ. Можно предположить, что в мире таких учёных «найдется» много…

















