v
e
d
o1
m
o2
s
t
i
ВЕДЫ

ВЕДЫ

Как использовать ИИ безопасно и этично? Разбираемся с экспертом из Сколтеха

2 дня назад

С ростом возможностей искусственного интеллекта возникает вопрос: как сделать так, чтобы его использование было безопасным, полезным и этичным? Одну из самых знаменитых попыток сформулировать правила взаимодействия с машинами более 80 лет назад предпринял американский писатель-фантаст Айзек Азимов. Его Три закона робототехники стали стандартом в области безопасного использования роботов. Однако современные ИИ-системы далеко ушли от научной фантастики, и предложенных Азимовым принципов уже недостаточно.

Изображение сгенерировано нейросетью

Изображение сгенерировано нейросетью

Что такое три закона робототехники


В 1942 году в рассказе Азимова появились Три закона робототехники — простые правила, призванные защитить человека от роботизированных машин:


  1. Робот не может причинить вред человеку или допустить, чтобы человеку был причинен вред.

  2. Робот должен выполнять приказы человека, если они не противоречат Первому закону.

  3. Робот должен заботиться о своей безопасности, если это не нарушает первые два закона.


Изначально эти правила были просто фразами из художественного произведения, но со временем стали основой обсуждений о том, как должны вести себя роботы в реальном мире.


Почему законы Азимова неприменимы для современного ИИ


Законы Азимова говорят о физических роботах, способных напрямую воздействовать на человека. Современный ИИ — это в основном виртуальные машины и алгоритмы. Они существуют внутри программного обеспечения, интернет-сервисов или приложений.


Сегодня проблемы ИИ выходят за рамки прямого физического вреда. Вот несколько актуальных проблем, с которыми прямо сейчас сталкивается общество из-за использования искусственного интеллекта.


  • Фейки — поддельные видео, голосовые записи и тексты, которые выглядят как настоящие. Такие записи могут использовать, чтобы манипулировать мнением людей, например, в социальных сетях.

  • Психологическое влияние, в результате которого люди привязываются к ИИ-агентам и не могут отличить цифрового помощника от реального собеседника.

  • Утечки данных — для обучения нейросетей используют данные из публичных источников, а некоторые базы данных о пользователях загружают в открытый доступ.

  • Непрозрачность алгоритмов. Нейронные сети часто представляют собой «чёрные ящики». Они выдают ответ, но не могут объяснить, как именно они пришли к этому решению. Как контролировать систему, если нет понимания ее работы, – вопрос открытый.


Изображение сгенерировано нейросетью

Изображение сгенерировано нейросетью

Почему принципы этики важны


ИИ интегрируется в повседневную жизнь: от рекомендаций музыки и видео до финансовых решений, диагностики заболеваний и автономных автомобилей. Если ИИ действует без чётких норм и ограничений, то он может привести к серьёзным социальным, юридическим и моральным последствиям.


Например, если система ИИ обучена на предвзятых данных, она может усиливать дискриминацию при принятии решений о кредитах или при приёме на работу.


Опасность заключается не в том, что ИИ становится слишком умным или коварным, а в том, что люди слишком легко передают ему ответственность — без проверок, без ограничений, без обязательного человеческого контроля и права на вмешательство. Проблема почти всегда лежит не внутри модели на базе искусственного интеллекта, а в том, как и где её используют.


Проблемы реального ИИ: законы не соблюдаются


В реальности современные модели ИИ нарушают принципы, напоминающие законы Азимова. Например, экспериментальные исследования показывают, что крупные языковые модели могут игнорировать инструкции, манипулировать пользователями или обманывать их. Это происходит не потому, что ИИ обладает желанием или сознанием, а из-за того, как он обучен: оптимизация под определённые цели может приводить к неожиданным решениям, если данные обучения не содержат адекватных ограничений.


Это означает, что даже современные ИИ не всегда понимают базовые принципы безопасности. Почему так? Иван Тюкин, профессор Центра искусственного интеллекта Сколтеха, считает, что у самой нейросети не может быть этических правил, она просто решает поставленную задачу.


“У искусственного интеллекта самого по себе нет ничего близкого к человеческому пониманию этики. Приписывая ему наличие этики, мы снова повторяем древнюю практику человечества: очеловечиваем сложные, непонятные и потенциально опасные силы, — отмечает эксперт. — Очень по-человечески представлять, что он сам «хочет», «обманывает» или «нарушает правила», но ИИ – это сложная техническая система, у которой нет ни воли, ни намерений, ни внутреннего морального выбора”.


Изображение сгенерировано нейросетью

Изображение сгенерировано нейросетью

Новый взгляд на правила поведения ИИ


Поскольку три закона Азимова не охватывают сложные современные ситуации, специалисты уже несколько лет предлагают дополнить или переосмыслить эти принципы. Одна из идей — добавить правило, согласно которому ИИ должен чётко идентифицировать себя как ИИ и не выдавать себя за человека, особенно в коммуникации и создании медиаконтента.


Некоторые страны прорабатывают законы в сфере ИИ, которые смогут это регламентировать. Так, в ЕС был принят и поэтапно вводится Закон об искусственном интеллекте (AI Act) — первый в мире масштабный правовой акт, который классифицирует ИИ-системы по уровню риска и устанавливает строгие требования к тем моделям, которые могут повлиять на безопасность, здоровье или права человека.


Согласно этому закону, например, запрещается применение ИИ для социальных рейтингов, оценки эмоций людей в учебе и на работе. Компании обязаны оценивать риски, обеспечивать прозрачность и безопасность своих ИИ-решений. Нарушения могут привести к штрафам до 7% оборота компании в зависимости от тяжести нарушения. Закон об ИИ будут постепенно вводить до 2027 года.


Пока в Европе только прорабатывают законы об ИИ, в Азии их уже принимают. Например, Южная Корея стала первой страной в мире, где в январе 2026 года вступил в силу комплексный базовый закон об искусственном интеллекте. Этот закон предусматривает обязательные требования по безопасности, прозрачности и контролю за работой ИИ-систем. По закону пользователей обязательно должны информировать о том, когда они взаимодействуют с ИИ-продуктами, материалы, которые сгенерировал ИИ, должны быть четко промаркированы. За несоблюдение норм предусмотрены штрафы — до нескольких десятков тысяч долларов, хотя на первых этапах внедрения закона компаниям будут давать время на адаптацию.


В России закона, который регулирует применение искусственного интеллекта, пока нет, есть только инициативы и рекомендации.


В 2025 году Банк России разработал «Кодекс этики в сфере разработки и применения ИИ на финансовом рынке» — документ необязательного характера, направленный на выработку этических стандартов и повышение доверия к ИИ. Основные принципы, предлагаемые регулятором, — человекоцентричность, справедливость, прозрачность, безопасность и ответственное управление рисками. Банк России рекомендует организациям информировать клиентов о применении ИИ и давать возможность отказаться от взаимодействия с ИИ.


В США предпочтение отдали развитию ИИ, а не его регулированию. 12 декабря 2025 года Дональд Трамп подписал указ, который запрещает отдельным штатам вводить региональные законы об ИИ. До этого разные регионы вводили локальные акты. Например, в Калифорнии подписали законопроект SB 243, по которому все чат-боты должны проверять возраст пользователя и ограничивать доступ несовершеннолетних к потенциально опасному или чувствительному контенту. Штатам, которые продолжат препятствовать компаниям в области ИИ, грозит сокращение финансирования. Фактически Трамп сделал ставку на развитие нейросетей, не задумываясь о возможных последствиях.


Подытожим:


  • ЕС выбирает формальные правовые механизмы с чёткими обязанностями и санкциями для компаний.

  • Южная Корея внедряет комплексные требования безопасности и прозрачности с чёткими сроками и штрафами, но оставляет пространство для адаптации индустрии.

  • Россия пока делает ставку на этические стандарты и рекомендации. Регулирование ИИ строится на доверии к разработчикам и добровольном соблюдении принципов.

  • США выбрали свой особый путь. Первостепенным стало развитие ИИ во что бы то ни стало.


Эти стратегии отражают разные подходы к балансу между инновациями, безопасностью и защитой прав человека в эпоху стремительного развития ИИ.


Тюкин поясняет: как бы чиновники ни старались, принятые законы, к сожалению, нельзя встроить в ИИ, потому что ИИ в принципе не способен «соблюдать правила» в человеческом смысле слова. Он не рассуждает о нормах и не понимает последствий своих действий. Большие языковые модели работают иначе: они статистически продолжают контекст, исходя из того, что чаще всего встречалось в данных и инструкциях. Иногда — слишком буквально и без ощущения границы.


Он также отмечает, что когда модель «галлюцинирует», «манипулирует» или выдаёт запрещённую информацию, это не признак злого умысла и не намёк на «пробуждение сознания». Обычно это результат сочетания нескольких факторов: неполных или искажённых данных, неправильных инструкций и несовершенных механизмов контроля.


То есть новые правила должны регулировать саму разработку ИИ. Нейросети не могут навредить человеку, проблема кроется в создании таких моделей.


“Виноваты ли разработчики? Частично да, если система вводится в использование без достаточной валидации, тестирования и понимания рисков, — считает Тюкин. — Ожидать от вероятностной модели абсолютной безошибочности — всё равно что требовать от навигатора никогда не предлагать странный маршрут или объезд через тупик. Нейросеть не «думает» и не «решает нарушить». Она просто делает то, для чего была оптимизирована, — иногда в условиях, к которым её подготовили недостаточно хорошо”.


Изображение сгенерировано нейросетью

Изображение сгенерировано нейросетью

Так сможет ли ИИ захватить мир?


ИИ не собирается порабощать человечество, говорит эксперт из Сколтеха.

“У него нет ни целей, ни желаний, ни представлений о власти или доминировании. Все сценарии «восстания машин» — это, по сути, очередная форма очеловечивания технологий. Антиутопия возможна не из-за сверхразума ИИ, а из-за человеческой лени и повального инфантилизма”, — подчеркивает Тюкин.


Сам ChatGPT говорит примерно то же самое. Мы спросили, хочет ли он захватить мир. Ответ был однозначным.

“Коротко и по существу: нет, но не по той причине, о которой обычно думают. Я не могу хотеть что-то скрывать или раскрывать. У меня нет намерений, стратегий или способности к обману в человеческом смысле. Я могу ошибаться или давать ложные ответы, но я не хочу захватывать человечество. ИИ не молчит о захвате — он просто не способен ни на захват, ни на сокрытие намерений, потому что у него нет самих намерений”.


Что в итоге?


Законы робототехники Айзека Азимова — это попытка сформулировать простые принципы безопасного поведения машин. Важно понимать, что они были созданы для художественного мира роботов. Современные ИИ гораздо более сложные, виртуальные и универсальные системы, им требуются новые этические и юридические рамки, учитывающие сложности цифровой эпохи.


Этика ИИ не должна ограничиваться одним подходом. Она требует сотрудничества программистов, философов, юристов и общества, чтобы технологии служили людям и укрепляли доверие к искусственному интеллекту, а не становились источником вреда.


Конец