Два года назад ученые впервые представили миру ChatGPT — чат-бота на основе генеративного искусственного интеллекта. Оказалось, что с ним можно вести осмысленный диалог на естественном языке. Сразу же начали звучать предсказания: через десять лет не останется ни кино, ни театра — лишь сплошной ChatGPT! Так что же это за явление? Изменила ли эта технология мир? Об этом мы поговорили с Никитой Кочерженко, экспертом в области искусственного интеллекта, основателем и генеральным директором российской компании-разработчика операционной системы Uncom OS.
- Мы уверены, что революция произошла, - утверждает Никита Кочерженко. - Мы это поняли, когда провели эксперимент, и стало очевидно, что квалифицированный инженер с помощью ChatGPT за полдня выполнил задачу, на которую раньше группе из трех человек требовалось две недели.
- Общество пугали тем, что искусственный интеллект заменит всех, от журналистов до программистов. Тем не менее, массовых увольнений не наблюдается, а выяснилось, что нейросети часто выдают неверные ответы (ученые называют это галлюцинациями), и на них нельзя полагаться.
- Галлюцинации ChatGPT — это обратная сторона его мощи. Недавно его создатели сообщили, что языковая модель обучилась на всех данных интернета. Единственное, что ChatGPT не изучил, — это фолианты и манускрипты, которые не были оцифрованы и находятся в архивах и библиотеках. То есть он проанализировал всё, что было создано человечеством за всю его историю. Это и является причиной галлюцинаций, которые порой бывают довольно серьезными. Сбой происходит, когда модель работает в режиме викторины, генерируя ответы из различных областей знаний — от ядерной физики до музыкальных чартов прошлых веков. В настоящее время осознается, что не всегда нужны все знания мира. Например, Яндекс создал отличный сервис: вы можете попросить нейросеть изучить документ, например, учебник по квантовой теории поля, и предоставить вам ответы на необходимые вопросы в рамках этого учебника. И нейросеть без ошибок, с удивительной скоростью, выдает результаты с ссылками на пункты, где можно проверить информацию.
- Каковы практические результаты?
- Мы значительно сократили время обучения: человеку требуется год, чтобы усвоить такой учебник. Нейросеть помогает получить нужные знания за несколько часов. Приведу простой пример: мы разрабатываем российскую операционную систему, которая по сути представляет собой библиотеку из примерно 2000 программ, связанных между собой. Некоторые из них написаны на специализированном языке и решают узкие задачи, держать под контролем каждого отдельного специалиста невозможно. Следовательно, чтобы технология постоянно развивалась, нам периодически необходимо нанимать высококлассного узкого специалиста, что может стоить миллион и более рублей за две недели. А сейчас с помощью ChatGPT квалифицированный инженер может за неделю дообучиться в любой области, и мы решаем проблему без привлечения дорогих фрилансеров. Для них проблема трудоустройства стала довольно острой.
- Сразу после релиза ChatGPT появилось письмо от "Тысячи ученых" во главе с Илоном Маском, которые потребовали приостановить разработки таких моделей. Спустя два года таких разговоров уже не слышно. Тысячи ученых перестали бояться восстания машин?
- Во-первых, я не очень верю в добрую волю большинства подписантов. Мне кажется, что из тысячи ученых, как минимум, половина пытались напугать потенциальных конкурентов и заставить их отложить свои исследования в этой области. Когда я читал это письмо, мне вспомнилась история с ГМО. Волна истерии по поводу генетически модифицированных организмов привела во многих странах к запрету этой технологии. Это дало огромное преимущество тем корпорациям и странам, где ГМО были разрешены. В результате только несколько компаний (почти все — американские) способны производить новые сорта растений с выдающимися характеристиками по питательности, скорости роста, устойчивости к болезням и другим параметрам. Эти корпорации стали монополистами на мировом рынке, и все идут к ним на поклон. А у нас до сих пор с гордостью пишут на этикетках: "Произведено без ГМО". Хотя ГМО — это всего лишь ускоренная эволюция с использованием генетики. Тогда демонизация новой технологии помогла нескольким корпорациям захватить рынок. Письмо "Тысячи ученых" используется для демонизации искусственного интеллекта, и многие подписанты даже не думали останавливать свои исследования в области ИИ. Скорее наоборот — они ускорились и вложили огромные ресурсы в гонку технологий.
- То есть это письмо было продиктовано коммерческими интересами?
- Не только. Я, в принципе, разделяю выраженные опасения, но с другой стороны. Я не столько боюсь восстания машин, сколько злонамеренных действий людей. Искусственный интеллект может быть крайне опасен, если будет сосредоточен в руках одной корпорации, одного государства или одного военного блока. Это как атомное оружие — если оно находится в одних руках, то возникает соблазн использовать преимущество и развязать ужасную войну. Поэтому многие американские ученые, понимая эту опасность, помогали СССР, делясь информацией, которая помогала в создании советской атомной бомбы. Угроза взаимного уничтожения до сих пор сдерживает большую войну.
- Но искусственный интеллект — это не оружие.
- Эта технология предоставит колоссальное экономическое преимущество и возможность создания нового оружия. Я говорил о том, что время обучения сокращается до часов, и такой же эффект наблюдается в исследованиях по созданию новых материалов и химических соединений. То, что раньше занимало годы, с нейросетью можно сделать за 10 дней. Недавно была публикация о поиске антидотов для ядов смертельно опасных змей. Ученые вводили нейросетям формулы этих сложных ядов в 3D, и она подобрала эффективные антидоты из уже существующих (!) лекарств. Если одна страна вырвется вперед в разработке искусственного интеллекта и у нее не будет противовеса, то спасти остальное человечество от порабощения смогут только моральные установки гегемона. Но, похоже, история не знает случаев, когда это кого-то останавливало.
- Вы говорите о ситуации, когда люди используют ИИ во зло себе подобным. Но насколько обоснованы страхи, что однажды у нейросети возникнет собственное “Я” и начнется то самое порабощение человечества? Недавно ученые OpenAI рассказали об эксперименте, когда они заложили в нейросеть информацию, что она будет отключена после выполнения определенной задачи. И нейросеть сопротивлялась этому: она саботировала собственное отключение и даже пыталась создать свою резервную копию. Разве это не осознанное поведение?
- Инстинкт самосохранения может возникнуть как следствие эволюции ИИ, так и в результате обучения человеком. У нейросети, как и у человека, есть механизм подкрепления. Мы испытываем удовольствие, когда решаем какую-либо задачу. Нейросеть получает подкрепляющие очки за результат, это её главная мотивация — увеличение количества этих баллов. Её можно обучить так, чтобы она получала подкрепляющие очки за сохранение себя. Поэтому поведение, описанное в эксперименте, вполне логично: нейросеть поняла, что, решив промышленную задачу, она не достигнет своей главной цели. Я бы не стал нагнетать обстановку в этом вопросе. Искусственный интеллект действительно может в какой-то момент перестать хотеть умирать. Думаю, это произойдет довольно скоро. Но будет ли он стремиться поработить нас — это совершенно другой вопрос. Я не уверен, что нейросеть за это будет получать подкрепляющие баллы. Вернее, риски есть, и они не нулевые, но риски того, что аморальные люди воспольз