Сигнализирай!

Учени хванаха изкуствен интелект в лъжа

Gospodari.com
Gospodari.com
12.05.2024 г.
129
0

Учени хванаха изкуствен интелект в лъжа. В анализ на престижния Масачузетски технологичен институт (MIT) се посочват редица примери как мамят съперници, блъфират и се правят на човек.

Изкуственият интелект: Заплахата или възможността на 21 век? (Коментарът на редактора)

Една система дори изменила поведението си по време на симулация на тест за безопасност, с което подвела изпитващите да я сметнат за надеждна. "С усъвършенстването на тези способности за измама, ИИ ще представлява все по-сериозен риск за обществото", коментира д-р Питър Парк, изследовател на ИИ в института и водещ автор на изследването.

Парк се заема с въпроса, след като компанията Meta - собственик на Facebook, разработва програмата Cicero. Cicero влезе в топ 10 на реалните играчи в стратегическата игра Diplomacy. Meta твърдят, че програмата е тренирана да бъде "преобладаващо честна и отзивчива". И "никога да не напада целенасочено" съюзниците си. "Това твърдение беше доста съмнително, тъй като именно нападателните стратегии са ключови в тази игра", коментира Парк.

Парк и колегите му са прегледали публично достъпната информация за програмата. И са открили множество примери как Cicero използва предварително измислени лъжи, интригантства и въвлича други играчи в различни схеми. В един случай, досущ като човек, Cicero се оправдава за отсъствието си. С лъжата, че говори с приятелката си по телефона. "Установихме, че изкуственият интелект на Meta се е превърнал в майстор на измамата", обобщава Парк.

снимка: iStock

Измама с фалшива смърт

Екипът на MIT открива сходни проблеми и при други системи. В един случай, ИИ се прави на умрял при дигитална симулация. За да измами тест, предназначен да елиминира системи, способни бързо да се възпроизвеждат, след което бързо се връща към усилена дейност.

Находките в изследването потвърждават колко трудно ще бъде да се гарантира, че ИИ няма да стигне до нежелани и неочаквани постъпки. "Фактите са доста тревожни. Излиза, че ако една система се покаже като безопасна на тестове, това може да е само преструвка", коментира Парк. Сред опасностите от такова поведение са измами, вмешателство на избори, даване на различни отговори за различни потребители. В крайна сметка, човечеството може и да изгуби контрола над ИИ, ако способностите му за мамене продължат да напредват. Според тях е необходимо да се направят допълнителни проучвания на този въпрос и да се набележат регулации.

"Прието е, че ИИ-системите трябва да отговарят на три условия - да бъдат честни, полезни и безвредни. Вече е отбелязвано многократно обаче, че тези качества си противоречат - с честност може да нараниш нечии чувства например. А да си полезен за направата на бомба може да бъде вредно. Затова и способността за измама може понякога да е желателно качество на една система за ИИ", коментира проф. Антъни Кон от Института "Алън Туринг". Той е съгласен с авторите на изследването, че има нужда от още изследвания върху тези въпроси, за да се ограничат потенциалните вреди от ИИ.

Говорител на Meta коментира по повод изследването, че работата върху Cicero е само изследователска и моделите са разработени единствено за играта Diplomacy. "Мета" редовно споделя резултатите от изследванията си, за да позволи на други учени да надграждат постигнатото от нас. Нямаме намерение да ползваме тези разработки в продуктите си", уверяват от компанията.

Коментирай

За да коментираш, трябва да влезеш
в профила си или да се регистрираш!

Вход / Регистрация
Реклама

Още от Новини

Реклама

Трябва да влезеш в профила си, за да използваш тази функционалност.