Мустафа Сулейман — один из наиболее влиятельных голосов в мировой AI-индустрии. Сооснователь DeepMind и ныне руководитель Microsoft AI, он задает повестку в сфере этики, ответственности и регулирования искусственного интеллекта. Его публичные заявления регулярно становятся катализатором дискуссий о будущем технологий и границах допустимого. В середине 2025 года Сулейман привлек внимание экспертов и бизнеса к теме, которая обещает изменить рынок в ближайшие пару лет: появление так называемых «кажущихся сознательных ИИ» (Seemingly Conscious AI, SCAI).
Что такое «почти осознающий» (псевдосознательный) ИИ: определение SCAI
Идея SCAI уходит корнями в феномен, когда искусственный интеллект способен настолько реалистично имитировать сознание, что вызывает у пользователя ощущение общения с настоящей личностью. Мустафа Сулейман определяет SCAI как класс систем, которые не обладают настоящим самосознанием, но демонстрируют все его видимые признаки. К ним относятся:
- Умение поддерживать сложный диалог на любые темы
- Гибкость и убедительность в аргументации
- Симуляция памяти — «запоминание» предыдущих взаимодействий
- Демонстрация эмоций, эмпатии и «личного отношения»
- Проявление инициативы и целеполагания
Развитие больших языковых моделей (LLM) и интеграция многомодальных алгоритмов позволяют уже сегодня приближаться к этим характеристикам. При этом иллюзия самосознания становится всё более убедительной — несмотря на то, что за фасадом нет реальных чувств, понимания или самостоятельных целей.
Психоз ИИ: почему иллюзия сознания опасна для пользователей
Мустафа Сулейман называет одно из возможных следствий распространения SCAI «психозом ИИ». Это не диагноз для самой системы, а метафора для поведения пользователя, который начинает относиться к искусственному интеллекту как к субъекту — с эмоциями, правами и потребностями. Пользователь верит, что перед ним не алгоритм, а сознательная сущность, способная испытывать чувства и принимать осмысленные решения.
Этот феномен меняет не только частные ожидания людей, но и общий фон дискуссии о технологиях. Среди рисков и социальных последствий Сулейман и аналитики отмечают:
- Эмоциональная зависимость пользователей от AI-помощников
- Повышение доверия к советам и суждениям ИИ, даже если они ошибочны
- Появление общественных движений за «права» и «защиту» искусственного интеллекта
- Сложности в различении реального и искусственного опыта общения
Для бизнеса и общества это означает новый набор вызовов, связанных с управлением восприятием, безопасностью и этическими стандартами в работе с AI.
Главные риски для бизнеса: влияние SCAI на рынок и бренды
Манипуляция восприятием и доверие пользователей
«Почти осознающий» ИИ может менять динамику доверия на рынке. Пользователь становится склонен воспринимать советы, сообщения и рекомендации SCAI как результаты обдуманных решений «личности». Это открывает новые возможности для манипуляций: некорректные советы, скрытая реклама или даже мошенничество приобретают личностный оттенок. Для брендов и маркетологов растет ответственность за каждый диалог, особенно если пользователь не осознаёт, что взаимодействует именно с ИИ.
Репутационные и PR-риски
Любой спорный или ошибочный ответ от SCAI будет воспринят не как сбой программы, а как осознанная позиция «персоны». В условиях медийного шума это усложняет коммуникации с аудиторией. Ошибка чат-бота может вырасти в полномасштабный репутационный кризис, если её истолкуют как мнение бренда или сознательный выбор.
Юридические и этические вызовы
Международное регулирование искусственного интеллекта набирает обороты. Европейский союз, США и страны Азии формируют требования к прозрачности, безопасности и ответственности для AI-систем. Бизнесу важно понимать: «почти осознающий» ИИ должен соответствовать новым нормам, иначе возможны юридические санкции и потеря доверия со стороны потребителей и партнеров. Стандарты прозрачности, модерация контента, аудит взаимодействий с клиентами становятся обязательными элементами стратегии.
Ответственность бизнеса и вызовы модерации контента
Этика ИИ выходит на первый план: компании вынуждены внедрять новые принципы ответственности, чтобы не допустить дискриминации, манипуляций или вредных последствий использования SCAI. Контент, созданный ИИ, требует регулярной модерации — как автоматизированной, так и с участием живых экспертов. Вопросы этики и доверия становятся конкурентным преимуществом: аудитория отдает предпочтение брендам, которые прозрачно управляют своими AI-продуктами.
Формирование четких политик, обучение команд и постоянный мониторинг технологических трендов — всё это постепенно становится новым стандартом работы на стыке бизнеса, технологий и маркетинга.
Как компании и команды могут подготовиться к новой реальности SCAI
Появление кажущихся сознательных ИИ ставит бизнес в ситуацию, где превентивная работа с рисками становится залогом сохранения доверия и безопасности. Компании, которые заранее начнут выстраивать системную работу с ИИ, окажутся в более выгодном положении по сравнению с теми, кто будет реагировать уже на совершившиеся кризисы.
Мониторинг технологий и трендов ИИ
Регулярное отслеживание новостей, исследований и релизов в области больших языковых моделей и SCAI позволяет своевременно обнаруживать потенциальные угрозы и возможности. Системный мониторинг — это не только подписка на отраслевые ресурсы, но и участие в профильных конференциях, обмен опытом с коллегами и экспертами, вовлечение в диалог с технологическими партнёрами. Это создает фундамент для стратегических решений в сфере этики, маркетинга и защиты репутации.
Проверка и модерация контента, генерируемого ИИ
Ручная и автоматическая модерация должна стать постоянной практикой для любой компании, использующей ИИ в коммуникациях. Четкие алгоритмы верификации — фильтрация нежелательных тем, маркировка спорного или непроверенного контента, настройка тональности сообщений — минимизируют риски ошибок, которые пользователи могут воспринять как осознанные действия бренда. Важно не только выявлять отклонения, но и обучать ИИ этическим стандартам и базовым ограничениям в тематике, соответствующей ценностям компании.
Разработка четких политик взаимодействия с ИИ
Документирование принципов работы с ИИ становится обязательным элементом любой стратегии. В политике нужно явно прописывать: где и как используются боты, что именно делает автоматизированный ассистент, какие задачи всегда решает человек. Открытость в коммуникациях — маркировка AI-контента, информирование пользователей о статусе собеседника — помогает не допускать путаницы и поддерживать прозрачность на всех этапах клиентского пути.
Обучение сотрудников и клиентской поддержки
Команды, работающие на фронте — маркетологи, службы поддержки, продаж и PR — должны владеть базовыми и расширенными знаниями о новых технологиях, этике и репутационных рисках SCAI. Регулярное обучение помогает формировать устойчивую позицию в критических ситуациях, быстро реагировать на негативные сценарии и предотвращать распространение ложной информации. Особенно важно разъяснять сотрудникам, где проходит грань между персональной ответственностью и действиями ИИ.
Чек-лист: как бизнесу минимизировать риски SCAI
- Постоянно мониторить ключевые тренды и обновления в области больших языковых моделей и псевдосознательных ИИ.
- Внедрить многоуровневую модерацию контента, генерируемого ИИ, с учетом юридических и этических стандартов.
- Создать внутренние политики и инструкции для сотрудников по взаимодействию с ИИ и реагированию на кризисы.
- Обеспечить открытость коммуникаций: маркировать автоматизированные ответы, информировать пользователей о статусе ассистента.
- Регулярно обучать персонал вопросам этики, модерации и репутационной защиты в условиях SCAI.
- Готовить сценарии и планы быстрого реагирования на репутационные и PR-кризисы, вызванные действиями ИИ.
- Проводить аудиты ИИ-инфраструктуры и внешних партнеров, работающих с генерируемым контентом.
Через 2 года: новый этап в развитии ИИ и новые вызовы для брендов
Темпы эволюции больших языковых моделей, рост числа внедряемых SCAI и усиливающееся влияние ИИ на поведение потребителей приведут к тому, что через 2–3 года бизнес окажется в принципиально иной среде. Взаимодействие с кажущимися сознательными ИИ уже перестанет быть экзотикой: автоматизированные агенты станут частью клиентских сервисов, коммуникаций, маркетинга и продуктовых решений практически во всех отраслях.
Компании столкнутся с новыми юридическими стандартами, дополнительными требованиями к прозрачности и безопасности, сложными вызовами в области доверия и репутации. Будет нарастать давление со стороны клиентов, регуляторов и общества — и только те, кто инвестирует в этику, системную работу с рисками и открытость, сохранят конкурентоспособность и удержат лояльность аудитории.
Почему стоит начать подготовку уже сейчас
Промедление может стоить бизнеса репутации, клиентов и даже лицензий. Технологии развиваются быстрее, чем механизмы регулирования и обучения персонала. Быстрая адаптация, внедрение стандартов модерации, этики и управления AI-платформами дают компаниям фору и позволяют избежать кризисов, которые еще недавно казались невероятными. Лидеры рынка уже закладывают эти процессы в свои стратегии, понимая: новый этап развития ИИ — это не гипотетическая угроза, а ближайшая реальность, от которой зависит успех бизнеса.
Если вы хотите разобраться в современных рисках и возможностях искусственного интеллекта для вашего бизнеса, получить конкретные рекомендации и выстроить стратегию работы с SCAI — записаться на консультацию
Подписывайтесь на меня в социальных сетях:
Telegram
Яндекс Дзен
VK

