Иллюстрация: DrAfter123 / Getty Images

С 2015 года мир наблюдал активный рост корпоративных инвестиций в технологии искусственного интеллекта. Так, к 2023 году более половины компаний (54,6%) утверждают, что тестируют возможности генеративного ИИ для собственных задач, а 18,2% — уже внедрили его в свою деятельность. Несмотря на очевидный рост темпов развития технологии, в 2022 году был впервые зафиксирован спад инвестиций: они составили $189,59 млрд, что на $86,55 млрд меньше, чем в предыдущем году. Интерес обычных пользователей тоже начал понемногу снижаться. Так, в июне этого года посещаемость сайта ChatGPT упала почти на 10%, по сравнению с предыдущим месяцем. 

В России ситуация схожая. Прогнозы Минцифры, которое в 2019 году разработало дорожную карту развития нейротехнологий и искусственного интеллекта, не оправдались. Так, к 2024 году объем российского рынка ИИ составит 14 млрд руб., что в десять раз меньше, чем ожидали эксперты.

Риски и этика 

С повсеместным распространением ИИ растут и риски. Во-первых, системы могут ошибаться. Только за первый квартал 2023 года зафиксировано 45 инцидентов с участием ИИ. Наиболее частые происшествия — ДТП с участием беспилотных автомобилей, а также распространение ложной информации. 

Во-вторых, принятые ИИ решения могут быть сложно объяснимы, особенно это критично в таких областях, как медицина и судопроизводство. Более того, не секрет, что алгоритмы часто могут «фантазировать». Например, некоторые уголовные дела, составленные ИИ, настолько правдоподобны, что в них может поверить даже опытный адвокат. Однако к реальности они не имеют никакого отношения. Это создает препятствия для прозрачности и доверия к технологии. 

Разумеется, причин для снижения темпов развития множество: от общего перегрева рынка до технологических препятствий. Но можно выделить основные барьеры на пути масштабирования технологии.

Нехватка данных для обучения ИИ

Разработка и обучение ИИ-систем требуют использования больших объемов данных — это является критическим аспектом развития и применения технологии. Специалисты выделяют два типа информации, на которых обучаются алгоритмы: высококачественная и низкокачественная. К первой относятся научные статьи, диссертации, исследования, мировая художественная литература. Во вторую категорию входят менее достоверные источники — посты пользователей в социальных сетях и комментарии к ним, обсуждения в ветках форумов, развлекательные статьи в СМИ. По прогнозам экспертов, острую нехватку именно первого типа материалов можно будет наблюдать уже к 2026 году. Более того, ошибочные, устаревшие и недостоверные данные уже сегодня существенно снижают эффективность ИИ. 

Также многие данные могут быть недоступны из-за конфиденциальности, законодательных ограничений или монополизации информации определенными компаниями. Поэтому другая сторона развития ИИ — регулярное нарушение авторских прав. Так, против OpenAI, разработчика ChatGPT, уже был подан массовый иск. Компания обвиняется в нарушении неприкосновенности частной жизни миллионов людей, чьи данные она использовала для обучения чат-бота. Поэтому многие компании двигаются по более законному, но не менее спорному пути. Так, в августе Zoom заявил, что будет неограниченно использовать контент пользователей для обучения и тестирования функционала ИИ. Отказаться от предоставления своих данных компании пользователи не могут.

Поэтому проблема нехватки данных для развития ИИ остается достаточно острой. В некоторых случаях, особенно в медицинской и финансовой отраслях, информация и вовсе может быть чрезвычайно конфиденциальна, а доступ к ней ограничен законодательством и этическими соображениями — следовательно, проникновение ИИ в эти сферы затруднено.

Высокие вложения и отсутствие гарантий окупаемости 

Разработка продвинутых ИИ-систем, особенно в области глубокого обучения и нейронных сетей, требует значительных финансовых и технических ресурсов. Это включает в себя затраты на оборудование, вычислительные ресурсы, специалистов по работе с данными и исследователей в области ИИ. Вложения в разработку ИИ могут быть высокими, но окупаемость и успех проектов не всегда гарантированы. Особенно это актуально на начальной стадии, когда технология экспериментальная и не имеет непосредственных рыночных применений. Как правило, такие проекты в области ИИ ориентированы на инновации и не нацелены на быстрые результаты. 

Так, глава компании SoftBank уже потерял около $150 млрд за все время своих вложений в ИИ. Другой яркий пример — OpenAI. Каждый день на поддержку ChatGPT уходит порядка $700 тыс. При этом желанной прибыли чат-бот пока что не приносит. Так, в 2022 году убыток компании составил $540 млн. Но OpenAI продолжает развивать продукт благодаря большим инвестициям, например, от Microsoft. Компания уже вложила в стартап $1 млрд и планирует инвестировать еще $10 млрд.   

Российский бизнес пока что взвешивает все за и против, принимая решения о вложениях в ИИ. Так, 32% отечественных компаний хотят внедрить технологию в перспективе ближайших пяти лет, и примерно столько же (35%) — не планируют это делать. Во многом, конечно, нежелание использовать ИИ связано с необходимостью немалых вложений. Именно поэтому сегодня так важно сотрудничество между бизнесом, академическими учреждениями и государством — это обеспечит совместное финансирование исследований и разработок, а также поможет создать стимулы для инноваций в области ИИ.

Иллюстрация: DrAfter123 / Getty Images

В-третьих, ИИ-системы могут унаследовать предвзятость тех данных, на которых они обучались. Так, нередки новости о дискриминации в заключениях ИИ. Например, по этой причине Amazon закрыли проект, который должен ускорить процесс найма сотрудников. Алгоритм справлялся со своей задачей, однако по результатам его отбора кандидаты-мужчины были всегда предпочтительнее женщин.

Поэтому бизнес вынужден активно работать над решениями, которые помогут сократить риски. Например, компания OpenAi создала алгоритм Hindsight Experience Replay, который способен учитывать свои ошибки, чтобы избежать их повторения в будущем. Это не исключает возможные просчеты ИИ, но дает надежду, что их количество будет планомерно снижаться. 

Контроль над ИИ 

В попытках обеспечить безопасность работы ИИ и конфиденциальность данных государства стремятся взять контроль над развитием и применением технологии. Так, президент США призвал ведущих разработчиков следовать принципам, которые закреплены в «Проекте Билля о правах в области искусственного интеллекта», и защищать граждан от негативных последствий распространения ИИ. В Евросоюзе свод правил для технологии тоже готов и получил название AI Act. Он обязывает разработчиков ИИ соблюдать авторские права и раскрывать, на каких материалах обучаются алгоритмы. В России такой закон пока что разрабатывается. В планах Минцифры — создать «центр обезличивания данных», чтобы защищать персональную информацию граждан от неправомерного использования для обучения нейросетей. 

Такие, вполне логичные, действия государств в отношении ИИ могут значительно затормозить процесс развития технологии. Этим крайне обеспокоен бизнес: недавно 160 топ-менеджеров крупнейших ИТ-компаний подписали открытое письмо, в котором призвали пересмотреть законопроекты в сфере ИИ. Предприниматели опасаются, что подобные инициативы приведут к кратному повышению издержек на соблюдение необходимых требований и препятствиям для распространения технологии. Такие примеры уже тоже есть: весной власти Италии ограничили использование ChatGPT в стране из-за несоблюдения правил конфиденциальности.

Поэтому сейчас на повестке стоит вопрос о том, кто должен заниматься безопасностью интеллектуальных технологий. Главные разработчики ИИ предлагают передать вопросы регулирования самому бизнесу, а не государству. Для этого OpenAI, Microsoft, Google и Anthropic, например, создали свою организацию, которая будет заниматься стандартами безопасности ИИ. Однако очевидно, что решение этих проблем требует открытого содействия и сотрудничества между бизнесом, государством и обществом.

Спад или затишье?

Несмотря на некоторые признаки падения тренда, аналитики Стэнфорда уверены, что сегодня ИИ находится на стадии развертывания, а спад показателей — временная история, необходимая для стабилизации рынка после его «перегрева». В ближайшее время для преодоления вышеупомянутых барьеров бизнес и государства будут все активнее искать компромиссы — создавать этические комиссии по ИИ, разрабатывать законодательные базы, реализовывать программы для обучения населения новым технологиям. А уже к 2025 году, как предполагают эксперты IDC, генеративный ИИ станет настолько же популярным и привычным, как сегодня продукты Microsoft Office.