Ученые выяснили, когда ИИ будет представлять для человечества реальную угрозу Развитие искусственного интеллекта в последние несколько лет просто поражает воображение. В настоящее время стало обыденностью то, что еще каких-то 5 лет назад казалось фантастикой. Например, большие языковые модели, такие как ChatGPT, помогают решать сложнейшие задачи и проходить экзамены, а генерация видео достигла такого уровня, что нейросети стали использовать даже профессиональные киностудии. Но вместе с ростом возможностей увеличиваются и опасения – в какой-то момент ИИ может достичь такого уровня, что вместо помощника станет источником проблем. Недавнее исследование ученых из Университета Джорджа Вашингтона показало, когда это может произойти. Как исследователи рассчитали критический момент Ученые из Университета Джорджа Вашингтона разработали математическую модель, позволяющую предсказать “переломный момент”, когда ИИ перестает быть надежным. Работа команды во главе с профессором Нилом Джонсоном показала – сбой в поведении ИИ наступает, когда система перегружается сложной информацией, теряет фокус и начинает выдавать ошибочные или вымышленные данные — так называемые галлюцинации. Для расчета ученые использовали формулу на основе скалярных произведений векторов. Она учитывает, насколько сложными являются пользовательские запросы и как они взаимодействуют с особенностями обучения модели. Выяснилось, что слишком запутанные или перегруженные данными запросы повышают вероятность ошибок. Причем фактор вежливости — насколько “вежливо” человек формулирует запрос — на надежность ответа практически не влияет. Почему ИИ становится опасным По мнению авторов исследования, превращение ИИ из помощника в потенциальную угрозу происходит внезапно, что делает ситуацию особенно опасной. Надежная система может за считанные минуты начать генерировать поток недостоверной информации, вводя пользователей в заблуждение. Это может привести к распространению ложных данных, ошибочным решениям и даже стать угрозой в критически важных сферах вроде медицины или управления инфраструктурой. Нейросети могут начать генерировать потоки недостоверной информации Надо сказать, что уже сейчас ИИ нередко вводит людей в заблуждение. Ранее мы рассказывали о том, как нейросеть своими советами чуть не убила человека . Но угроза связана не только с ошибками в фактах. Чем мощнее и автономнее становятся ИИ-системы, тем выше риск, что их поведение будет трудно предсказать. На этом фоне вопрос безопасности становится все более актуальным. Что говорят эксперты о рисках ИИ Ведущие мировые специалисты неоднократно высказывались о возможных угрозах, связанных с развитием искусственного интеллекта. Профессор Йошуа Бенджио, один из основателей глубокого обучения, призывает к ужесточению регулирования ИИ. Он предупреждает, что без надзора мощные модели могут причинить реальный вред обществу — как в плане дезинформации, так и в более серьезных аспектах, вроде принятия решений в автоматизированных системах. Сэм Альтман, глава OpenAI, также подчеркивает, что даже современные ИИ-системы способны делать ошибки. Например, одно из исследований выявило у ведущих нейросетей “признаки деменции” . Неконтролируемое развитие ИИ, по мнению Сэм Альтмана, приведет к катастрофическим последствиями. Он говорит о необходимости строгих рамок, которые помогут направить это развитие в безопасное русло. Некоторые ученые считают, что опасность ИИ сильно преувеличена Однако существуют и более оптимистичные точки зрения. Так, профессор Ян Лекун из Meta считает, что текущие ИИ-системы все еще далеки от автономного мышления и самосознания. По его мнению, технологии полностью управляемы и их опасность преувеличена — проблема кроется скорее в их неправильном использовании, чем в самих моделях. Как предотвратить угрозу ИИ Одним из способов избежать проблем является правильная формулировка запросов. Ученые рекомендуют использовать точные, ясные и короткие запросы без лишних деталей. Чем меньше нагружена система, тем лучше она справляется с задачами и тем ниже вероятность ошибок. Ученые призывают грамотно пользоваться нейросетями Кроме того, необходимы постоянные проверки моделей, контроль качества выдаваемой информации и создание стандартов безопасности для ИИ-систем. Уже сегодня компании и исследовательские центры разрабатывают такие меры, чтобы предотвратить непредсказуемое поведение машин в будущем. Обязательно посетите наши каналы Дзен и Telegram , здесь вас ждут самые интересные новости из мира науки и последние открытия! Подводя итоги, можно сказать, что развитие искусственного интеллекта открывает огромные возможности, но и ставит перед человечеством серьезные вызовы. Даже самый продвинутый ИИ может стать источником ошибок и угроз. Чтобы избежать катастрофических последствий, необходимо уже сейчас вкладывать усилия в регулирование и тестирование. От может зависеть безопасность миллионов людей.
Batafsil | Подробно | Read more... Hi News
Top News
-
Рафаэль Бенитес Италия терма жамоасини қабул қилиб олиши мумкин
"Ливерпуль" ва "Реал" клубларининг собиқ устози Рафаэль Бенитес Италия терма жамоасини бошқариши мумкин.
-
"Интер" АПЛдан ярим ҳимоячи нишонга олди
"Брайтон" ярим ҳимоячиси Хулио Энсисо фаолиятини Италияда давом эттириши мумкин.
-
O‘zbekiston va Rossiya eksportni rivojlantirishga qaratilgan shartnomani imzoladi.
O‘zbekiston qishloq xo‘jaligi vaziri Ibrohim Abdurahmonov Rossiyaning yetakchi chakana savdo tarmoqlaridan biri bo‘lgan X5 Group kompaniyasi...
-
"Айнтрахт" спорт директори Экитикега АПЛ топ-клубларидан бўлаётган қизиқиш ҳақида гапирди
Франкфуртнинг "Айнтрахт" клуби спорт директори Маркус Креше Лондоннинг "Челси" ва "Ливерпуль" клублари қизиқишлари доирасида бўлган ҳужумчи Уго...
-
Крупный астероид “убийца городов” скоро столкнется с Луной — что произойдет со спутником?
В 2032 году крупный астероид может врезаться в Луну В конце 2024 года астрономы обнаружили потенциально опасный астероид, получивший...
-
Францияда "Олтин тўп"ни Дембеле қўлга киритишига ишонишмоқда
Франциянинг нуфузли L’Equipe нашри "Олтин тўп" соҳиби ким бўлиши борасида ўтказилган сўровнома натижаларини эълон қилди.