Хайтек

Сверхинтеллект может привести к социальным и технологических рискам

Изображение сгенерировано ии qwen

Мировое сообщество, от ведущих айтишников до членов королевской семьи, бьёт тревогу по поводу неконтролируемого развития искусственного интеллекта. В открытом послании, поддержанном принцем Гарри и Меган Маркл, содержится призыв к полному запрету разработок так называемого Искусственного Сверхинтеллекта (ИСИ) — систем, способных превзойти человеческие когнитивные способности.

Это обращение выдвинуто корпорациям и правительствам, которые, по мнению критиков, гонятся за прибылью, игнорируя катастрофические социальные и технологические риски. В отличие от обычных систем ИИ, имитирующих мозг, ИСИ нацелен на превосходство над человеческим интеллектом. Хотя такие системы пока не созданы, их перспектива вызывает панику.

Другой ключевой источник беспокойства — фундаментальная нестабильность систем ИИ. Принцип их работы основан на сложной математической вероятности, где алгоритмы изучают закономерности в огромных массивах данных. Эта сложность создаёт так называемый феномен «чёрного ящика»: даже сами разработчики теряют понимание того, как именно нейросеть генерирует ответ или как механизм принимает то или иное решение. В случае с ИСИ, этот масштаб неконтролируемости станет критическим.

Поделиться

Поделиться

Источник

Похожие статьи

Добавить комментарий

Кнопка «Наверх»