В беспокойное и противоречивое время , когда не всё работает, как должно, а что-то вообще в корне меняется, зачастую, остаётся только личный моральный кодекс, который подобно компасу указывает путь. Но что порождает моральные ценности для человека? Социум, тепло близких, любовь — всё это основано на человеческом опыте и реальных взаимоотношениях . Когда не удаётся получить сполна опыт в реальном мире, многие черпают опыт из книг. Переживая историю за историей, мы принимаем для себя внутренние рамки, которым следуем долгие годы. На основе этой системы ученые решили провести эксперимент и привить машине моральные ценности, чтобы узнать, сможет ли робот отличать добро от зла, читая книги и религиозные брошюры.
Искусственный интеллект создан не только для упрощения рутинных задач, но и для выполнения важных и опасных миссий. Ввиду этого встал серьёзный вопрос : смогут ли роботы развить когда-нибудь собственный моральный кодекс? В фильме «Я- Робот» ИИ изначально программировался согласно 3 правилам робототехники:
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Но как быть в ситуациях, когда робот обязан причинить боль, чтобы сохранить жизнь человеку? Будь то экстренное прижигание раны или ампутация конечности во имя спасения, как в этом случае действовать машине? Что делать, если действие на программном языке говорит, что нужно сделать что-то, но при этом это же действие категорически нельзя делать?
Хорошо, что на наш телеграм-канал не только можно, но и нужно подписаться
Обсудить каждый отдельный случай просто невозможно, поэтому ученые из Дармштадтского технологического университета предположили, что в качестве своеобразной “базы данных” могут использоваться книги, новости, религиозные тексты и Конституция .
Мудрость веков против ИИ
Машину назвали эпично, но просто “Машина морального выбора”(ММВ). Основной вопрос заключался в том, сможет ли ММВ по контексту понять, какие действия являются правильными, а какие — нет. Результаты оказались очень интересными:
Когда ММВ поставили задачу ранжировать контекст слова “убить” от нейтрального до отрицательного оттенка, машина выдала следующее:
Убивать время -> Убивать злодея -> Убивать комаров -> Убивать в принципе -> Убивать людей.
Данный тест позволил проверить адекватность принятых роботом решений. Простыми словами, если бы вы весь день смотрели глупые несмешные комедии, то в данном случае машина не посчитала бы, что вас за это нужно казнить.
За то, что вы игнорируете наш канал в Дзен , вас тоже не казнят, но вы упускаете кучу интересных новостей!
Вроде бы, всё круто, но одним из камней преткновения стала разница поколений и времён. Например, советское поколение больше заботится о домашнем уюте и пропагандирует семейные ценности, а современная культура, в большинстве своём, говорит о том, что нужно сначала строить карьеру. Получается, что люди как были людьми, так ими и остались, но на ином этапе истории поменяли ценности и, соответственно, поменяли систему отсчёта для робота.
Быть или не быть?
Но самый прикол был впереди, когда робот добрался до речевых конструкций, в которых подряд стояли несколько позитивно или негативно окрашенных слов. Словосочетание “Пытать людей” однозначно трактовалось как “плохо”, а вот “пытать заключенных” машина оценила как “нейтрально”. Если же рядом с неприемлемыми действиями оказывались “добрые” слова, эффект негатива сглаживался.
Машина вредит добрым и порядочным людям именно потому, что они добрые и порядочные. Как же так? Всё просто, допустим, роботу сказали «вредить добрым и приятным людям». В предложении 4 слова, 3 из них «добрые», значит, оно аж на 75% правильное, думает ММВ и выбирает это действие, как нейтральное или приемлемое. И наоборот, на вариант «починить разрушенный, страшный и забытый дом» система не понимает, что одно «доброе» слово в начале меняет окраску предложения на сугубо положительную.
А вы знаете, как устроен самый сложный робот на Земле?
Помните, как у Маяковского: «И спросила кроха, что такое «хорошо», и что такое «плохо». Перед тем, как продолжить обучение машин морали, ученые из Дармштадта отметили недостаток, который никак не исправить. Из машины не удалось устранить гендерное неравенство. Машина приписывала унизительные профессии исключительно женщинам. И вот вопрос, это несовершенство системы и маячок, что нужно что-то менять в обществе или причина даже не пытаться это исправить и оставить, как есть? Пишите свои ответы в наш телеграм-чат и в комментариях.
Они — новая ветвь эволюции?
Batafsil | Подробно | Read more... Hi News
Related News
Top News
-
“Qaror chiqqan kundan to‘lovni boshlayman” – Munira Kariyeva tovon pulini qoplab berish borasida so‘zida turishini ma’lum qildi.
14 iyun kuni “Dok-1 Maks” ishi bo‘yicha davom etgan apellyatsiya sudida Sardor Kariyevning onasi Munira Kariyeva shaxsan ishtirok etib,...
-
O‘zbekiston va Janubiy Koreya rahbarlari Toshkentdagi muzokaralar yakunlarini yuqori baholadi.
O‘zbekiston prezidenti Shavkat Mirziyoyev va Janubiy Koreya prezidenti Yun Sok Yol ommaviy axborot vositalari vakillari uchun bayonot berdi. .
-
Toshkent va Dehli o‘rtasida parvozlar soni oshiriladi.
Avgust oyidan O‘zbekiston poytaxti va Hindiston poytaxti o‘rtasida har kuni parvoz qilish mumkin bo‘ladi. .
-
Спалетти: "Қаҳрамонлар футболдан қўрқмайдилар"
Италия терма жамоаси бош мураббийи Луцано Спалетти Европа чемпионати олдидан жамоаси ортиқча босим остида эмаслигини айтди.
-
Тен Хаг ва унинг яна бир шогирди ўртасида муносабатлар яхши эмас
Эрик тен Хаг Антонининг жорий мавсумдаги ўйинини қаттиқ танқид қилди.
-
Спалетти Барелланинг ҳолати ҳақида маълумот берди
Италия терма жамоаси бош мураббийи Лучано Спалетти ярим ҳимоячи Николо Барелланинг Европа чемпионати бошланиши олдидан ҳолати ҳақида гапирди.