Наука

В Microsoft назвали ИИ опасным

Microsoft заметила, что распространение ИИ снижает безопасность, а не наоборот Андрей Ставицкий (Редактор отдела «Наука и техника»)

Фото: Shutterstock / Fotodom

Специалисты корпорации Microsoft оценили риски безопасности пользователей, связанные с искусственным интеллектом (ИИ). Исследование опубликовано на сервере препринтов arXiv.

Ученые проанализировали более 100 инструментов генеративного ИИ, оценив риски, которые с ними связаны. По их словам, ИИ «никогда не будет полностью безопасным», поэтому специалистам важно контролировать, на основе чего обучаются языковым модели (LLM), и предупреждать ошибки.

Специалисты пришли к выводу, что большие языковые модели (LLM) усиливают существующие риски безопасности и создают новые. Так, если обучать LLM на основе ошибочных или конфиденциальных данных, то модель будет распространять эту информацию среди пользователей. Также они назвали потенциальный вред от ИИ труднооценимым.

Читайте также:  Разработчики игр разочаровались в ИИ

Чтобы повысить безопасность от использования ИИ, специалисты предложили контролировать каждый этап обучения LLM. В качестве одного из выводов исследования они отметили, что человеческий фактор в процессе обучения ИИ всегда будет решающим. Также в работе с искусственным интеллектом необходимы предметная экспертиза, культурная компетентность и эмоциональный интеллект.

В начале января швейцарские ученые связали частое использование инструментов ИИ со снижением навыков критического мышления. Они предсказали, что в долгосрочной перспективе ИИ будет неизбжено влиять на снижение когнитивных функций в обществе.