Ученые выяснили, когда ИИ будет представлять для человечества реальную угрозу Развитие искусственного интеллекта в последние несколько лет просто поражает воображение. В настоящее время стало обыденностью то, что еще каких-то 5 лет назад казалось фантастикой. Например, большие языковые модели, такие как ChatGPT, помогают решать сложнейшие задачи и проходить экзамены, а генерация видео достигла такого уровня, что нейросети стали использовать даже профессиональные киностудии. Но вместе с ростом возможностей увеличиваются и опасения – в какой-то момент ИИ может достичь такого уровня, что вместо помощника станет источником проблем. Недавнее исследование ученых из Университета Джорджа Вашингтона показало, когда это может произойти. Как исследователи рассчитали критический момент Ученые из Университета Джорджа Вашингтона разработали математическую модель, позволяющую предсказать “переломный момент”, когда ИИ перестает быть надежным. Работа команды во главе с профессором Нилом Джонсоном показала – сбой в поведении ИИ наступает, когда система перегружается сложной информацией, теряет фокус и начинает выдавать ошибочные или вымышленные данные — так называемые галлюцинации. Для расчета ученые использовали формулу на основе скалярных произведений векторов. Она учитывает, насколько сложными являются пользовательские запросы и как они взаимодействуют с особенностями обучения модели. Выяснилось, что слишком запутанные или перегруженные данными запросы повышают вероятность ошибок. Причем фактор вежливости — насколько “вежливо” человек формулирует запрос — на надежность ответа практически не влияет. Почему ИИ становится опасным По мнению авторов исследования, превращение ИИ из помощника в потенциальную угрозу происходит внезапно, что делает ситуацию особенно опасной. Надежная система может за считанные минуты начать генерировать поток недостоверной информации, вводя пользователей в заблуждение. Это может привести к распространению ложных данных, ошибочным решениям и даже стать угрозой в критически важных сферах вроде медицины или управления инфраструктурой. Нейросети могут начать генерировать потоки недостоверной информации Надо сказать, что уже сейчас ИИ нередко вводит людей в заблуждение. Ранее мы рассказывали о том, как нейросеть своими советами чуть не убила человека . Но угроза связана не только с ошибками в фактах. Чем мощнее и автономнее становятся ИИ-системы, тем выше риск, что их поведение будет трудно предсказать. На этом фоне вопрос безопасности становится все более актуальным. Что говорят эксперты о рисках ИИ Ведущие мировые специалисты неоднократно высказывались о возможных угрозах, связанных с развитием искусственного интеллекта. Профессор Йошуа Бенджио, один из основателей глубокого обучения, призывает к ужесточению регулирования ИИ. Он предупреждает, что без надзора мощные модели могут причинить реальный вред обществу — как в плане дезинформации, так и в более серьезных аспектах, вроде принятия решений в автоматизированных системах. Сэм Альтман, глава OpenAI, также подчеркивает, что даже современные ИИ-системы способны делать ошибки. Например, одно из исследований выявило у ведущих нейросетей “признаки деменции” . Неконтролируемое развитие ИИ, по мнению Сэм Альтмана, приведет к катастрофическим последствиями. Он говорит о необходимости строгих рамок, которые помогут направить это развитие в безопасное русло. Некоторые ученые считают, что опасность ИИ сильно преувеличена Однако существуют и более оптимистичные точки зрения. Так, профессор Ян Лекун из Meta считает, что текущие ИИ-системы все еще далеки от автономного мышления и самосознания. По его мнению, технологии полностью управляемы и их опасность преувеличена — проблема кроется скорее в их неправильном использовании, чем в самих моделях. Как предотвратить угрозу ИИ Одним из способов избежать проблем является правильная формулировка запросов. Ученые рекомендуют использовать точные, ясные и короткие запросы без лишних деталей. Чем меньше нагружена система, тем лучше она справляется с задачами и тем ниже вероятность ошибок. Ученые призывают грамотно пользоваться нейросетями Кроме того, необходимы постоянные проверки моделей, контроль качества выдаваемой информации и создание стандартов безопасности для ИИ-систем. Уже сегодня компании и исследовательские центры разрабатывают такие меры, чтобы предотвратить непредсказуемое поведение машин в будущем. Обязательно посетите наши каналы Дзен и Telegram , здесь вас ждут самые интересные новости из мира науки и последние открытия! Подводя итоги, можно сказать, что развитие искусственного интеллекта открывает огромные возможности, но и ставит перед человечеством серьезные вызовы. Даже самый продвинутый ИИ может стать источником ошибок и угроз. Чтобы избежать катастрофических последствий, необходимо уже сейчас вкладывать усилия в регулирование и тестирование. От может зависеть безопасность миллионов людей.
Batafsil | Подробно | Read more... Hi News
Top News
-
O‘zbekistonda yana bir ayol hokim paydo bo‘ldi.Dilfuza Qambarova Sirdaryo viloyati Shirin shahri hokimi lavozimiga tayinlandi. O‘zbekistonda tuman va shahar hokimi lavozimidagi ayol rahbarlar...
-
Toshkent va Andijon aeroportlarida bir nechta reyslar kechiktirildi29 dekabr kuni noqulay ob-havo sharoiti sabab Toshkent va Andijon aeroportlarida qator aviaqatnovlar kechiktirildi.
-
5 аэрокосмических прорывов 2025 годаОт Луны до гиперзвука: 5 технологий 2025 года, которые приблизили будущее. 2025 год внезапно оказался тем самым моментом, когда невероятные...
-
TIV bir yilda xorijdagi o‘zbekistonliklarga 746,5 ming dollar yordam ajratdi2025-yilda O‘zbekiston Tashqi ishlar vazirligi xorijdagi 4 mingdan ortiq fuqaroga 746,5 ming dollar moddiy yordam ko‘rsatdi.
-
Мбаппенинг 2026 йилги 5 мақсадиAS нашри саҳифаларида ҳужумчи Килиан Мбаппе ҳақида материал эълон қилинди.
-
«Нефтчи» Иброҳимхалил Йўлдошев билан икки йиллик шартнома имзоладиИброҳимхалил Йўлдошев янги мавсумни ҳам «Нефтчи» сафида давом эттиришга қарор қилди.






