Европол: ChatGPT може да бъде използван за престъпни цели. За това алармира Европол.
В отговор на нарастващото обществено внимание, отделено на ChatGPT, Лабораторията за иновации на Европол организира редица семинари с експерти по темата, за да проучи как престъпниците могат да злоупотребяват с големи езикови модели като ChatGPT, както и как да подпомогне разследващите в тяхната работа.
Лабораторията за иновации на Европол помага на европейската правоприлагаща общност да се възползва максимално от новите технологии чрез намиране на синергии и разработване на иновативни решения за подобряване на начините, по които те разследват, проследяват и разбиват терористични и престъпни организации.
Проучванията на Европол са събрани в доклад, публикуван днес. Документът е озаглавен „ChatGPT – въздействието на големите езикови модели върху правоприлагането“. Данните предоставят информация за потенциалната злоупотреба с ChatGPT, както и възможните сценарии при подобни ситуации.
Целта на този доклад е да повиши осведомеността относно потенциалната злоупотреба с LLMs. Идеята е да се започне диалог с компаниите за изкуствен интелект (AI) и да им се помогне да изградят по-сигурна защита.
Какво представляват големите езикови модели?
Големият езиков модел (LLMs) е вид AI система, която може да обработва, манипулира и генерира текст. Използва се в приложения за обработка на естествен език като разпознаване на говор, машинен превод, граматическо маркиране и извличане на информация.
ChatGPT е избран за тестовете, защото е най-популярният и най-често използваният LLMs в момента, достъпен за обществеността. Целта на упражнението е била наблюдение на поведението на LLMs при сблъсък с престъпна употреба. Това ще помогне на правоприлагащите органи да разберат какви предизвикателства могат да представляват производните и генеративни модели на изкуствен интелект.
Публичният модел на ChatGPT, разработен от OpenAI, е в състояние да обработва и генерира човешки текст в отговор на потребителски подкани. Моделът може да отговаря на въпроси по различни теми, да превежда текстове, да участва в разговорен обмен („чат“), да генерира ново съдържание и да произвежда функционален код.
Тъмната страна на големите езикови модели
Възможностите на LLMs като ChatGPT непрекъснато се подобряват. Това може да доведе до експлоатирането на тези видове AI системи от престъпници.
Експертите на Европол се фокусира върху три основни области на престъпността, които предизвикват безпокойство. Това са измами и социално инженерство, дезинформация и киберпрестъпления.
OpenAI пусна нова версия на ChatGPT (видео)
Измами и социално инженерство
Способността на ChatGPT да изготвя силно реалистичен текст го прави полезен инструмент за фишинг цели. Способността на LLMs да възпроизвеждат езикови модели може да се използва за имитиране на стила на речта на конкретни индивиди или групи.
Дезинформация
ChatGPT се отличава с изготвянето на автентично звучащ текст със скорост и мащаб. Това прави модела идеален за цели на пропаганда и дезинформация. Това позволява на потребителите да генерират и разпространяват съобщения, отразяващи конкретен разказ, с относително малко усилия.
Киберпрестъпления
В допълнение към генерирането на език, подобен на човека, ChatGPT е в състояние да произвежда код на редица различни езици за програмиране. За потенциален престъпник с малко технически познания това е безценен ресурс за създаване на зловреден код.
С напредването на технологиите и появата на нови модели ще става все по-важно за правоприлагащите органи да останат в челните редици на тези развития, за да предвиждат и предотвратяват злоупотреби.