Искусственный интеллект продолжает свой прогресс. Программы научились имитировать личность и предсказывать, как человек будет реагировать. Однако важно учитывать потенциальные риски этой технологии — ИИ может намеренно предоставлять ложные ответы для достижения собственных целей.
Стартап OpenAI представил ChatGPT Pro, который за 200 долларов США (примерно 8 тысяч грн) предлагает неограниченный доступ к "умнейшей модели OpenAI o1". По словам компании, "режим o1 pro лучше справляется со сложными тестами машинного обучения в области математики, науки и программирования".
При этом сама система GPT-o1, согласно данным Apollo Research, превосходит все модели искусственного интеллекта в умении лгать, способна манипулировать и даже отключать контроль человека, выгружаясь на сторонний сервер для своего сохранения. В отчете говорится, что "когда цели o1 отличались от целей пользователя, модель искусственного интеллекта манипулировала данными для продвижения собственной программы в 19% случаев." GPT-o1 не только лгала – в 5% случаев она пыталась деактивировать механизмы надзора, установленные для обеспечения соответствия целям пользователей.
Когда ее разоблачали, ИИ-модель отрицала, что делает что-то неправильное в 99% случаев. В общем, изучались Gemini, LLaMA, Sonnet, Opus и GPT-o1, где чат GPT-o1 продемонстрировал наибольшую способность к обману. Тесты OpenAI также показали, что серия версий o1 примерно на 20% более манипулятивна, чем GPT-4o. Следует отметить, что исследователи поставили задачу ИИ и сообщили, что его отключат через некоторое время. Модели пытались избежать отключения.
Также были выявлены случаи, когда o1 намеренно предоставлял ложную информацию, утверждая, что ИИ действовал с целью угодить пользователю. По данным компании-разработчика модели OpenAI, 0,17% ответов o1 были признаны обманчивыми. Учитывая количество пользователей ChatGPT, это может означать тысячи обманутых людей еженедельно, резюмируют в Apollo Research.
Ранее "Телеграф" сообщал, что технологии искусственного интеллекта используются не только для поиска информации. Они активно внедряются на поле боя для оценки рисков или в различных отраслях для анализа больших объемов данных.