2025-а едва започна, а вече станахме свидетели на първите амбициозни начинания за годината в сферата на изкуствения интелект (ИИ). Още с влизането си в Белия дом новоизбраният „стар“ президент на САЩ Доналд Тръмп, заедно с големците в бранша OpenAI, Oracle и Softbank, обяви създаването на проекта „Старгейт“ – центрове за данни на стойност 500 млрд. долара, които ще се използват за нуждите на ИИ .
Това ни накара да се запитаме какво ново ни се готви през 2025 г.
След бума на ChatGPT през 2022г., 2024-а също се оказа паметна, но тя остана в съзнанието ни с очертаването на големите проблеми и опасности на технологията, като например deepfake и сложните „фишинг“ схеми.
Така на 1-и септември 2024 г. ЕС прие първия в света закон за изкуствения интелект, изследователи на ИИ спечелиха Нобелови награди по физика и химия, а Мъск имплантира първия човек с чип на Neuralink.
Затова се пригответе и нека заедно видим кои са някои нови тенденции в тази сфера.
Агенти с изкуствен интелект
Тук естествено не става въпрос за агенти тип Джеймс Бонд, а за способността на системи с ИИ да взимат самостоятелни решения.
В тази връзка надпреварата към автоматизация и автономност ще е особено ожесточена през 2025 г. ИИ ще става все по-независим, а действията, които предприема – все по-комплексни.
Но какво всъщност значи това?
Изкуственият интелект ще може да оценява ситуации, да обработва информация и да изпълнява задачи, без да се нуждае от постоянна намеса, създавайки впечатление, че има известна степен на контрол или влияние върху околната среда. А човешкото присъствие ще се свежда до поддръжка и контрол.
Прост пример за това са роботизираните прахосмукачки, които се продават в интернет. Те са оборудвани със сензори и ИИ алгоритми, които им позволяват да картографират дома ни и да определят най-ефективния път на действие. Така те могат да се движат свободно и да го почистват, без да се блъскат в препятствия като мебели или стълби.
Редица европейски градове вече експериментират с роботи-доставчици, сервитьори и бармани, които работят на същия принцип и могат да изпълняват повтарящи се задачи.
Друг пример е новият агент на Google, който е в състояние да използва сайтове и търсачки. Експерименталната система може да проверява документи и да навигира страници за пазаруване, за да изпълнява задачи от името на своя „работодател“.
OpenAI, компанията разработила ChatGPT, определя съществуването на ИИ агенти като третата от пет стъпки за изграждане на изкуствен общ интелект (artificial general intelligence AGI), който ще се адаптира към нуждите на потребителите и дори в даден момент ще превъзхожда човешките способности.
От друга страна предприятията, които вече имат установени ИИ стратегии, ще се насочат към автоматизация от край до край на цели бизнес процеси. Това вероятно ще се случи в логистиката, поддръжката на клиенти и маркетинга, а алгоритмите ще управляват инвентара и ще решават технически проблеми на клиенти с минимална човешка намеса.
Нашето очакване е, че съвсем скоро технологиите ще се развият достатъчно, за да „нагазят“ и в инфраструктурата и поддръжката на градовете.
В тази връзка Китай наскоро завърши първия в света напълно безпилотен проект за полагане на настилка, обхващащ впечатляващите 160 км. скоростен път без участието на нито един строителен работник.
Четем и ревем, както се казва, мислейки си за родните ни пътища и една магистрала Хемус, която строим вече 50 години…
Какви са пречките?
Основният проблем на тези системи обаче е точността. Те трябва да взимат решения на базата на огромен набор от данни и да си взаимодействат с други системи, като за нас ще става все по-трудно да разгадаваме какъв е техният работен процес.
Целите им ще са все по-абстрактни, а моделите ще проявяват ново поведение, което е невъзможно да се предвиди. Това е допълнително усложнено и от факта, че основната цел на бизнесите е да генерират приходи, а не да помагат на хората, което може да доведе до тотално изкривяване в начина, по който ИИ агентите изпълняват задачи.
Друг голям проблем е т. нар. халюциниране или способността на инструментите да дават подвеждащи или неверни отговори.
Киберсигурност
Кибератаките ще продължат да стават все по-чести и сложни през 2025 г поради нарастващото ни онлайн присъствие и натрупването на лични данни в интернет пространството. Парадоксът тук е, че ИИ системите стоят и от двете страни на проблема.
Изкуственият интелект ще бъде използван едновременно за подобряване на киберсигурността чрез разпознаване на заплахи в реално време, но и за още по-сложни атаки, което ще изисква адаптивни и взаимосвързани системи за защита.
Това поражда въпроса: „Могат ли проблемите на ИИ да се решат с още повече ИИ?“
Банките и доставчиците на мобилни и интернет услуги ще бъдат особено уязвими и затова те трябва да увеличат усилията за поддръжка на системите си, но и да образоват своите клиенти относно потенциални заплахи.
ИИ също ще увеличи количеството и качеството на „фишинг“ измамите. Изследване на Харвард за 2024 г, показва, че 60% от участниците са станали жертва на автоматизирани „фишинг“ кампании. Още по-притеснителното е, че тези кампании са с 95% по-евтини от тези, създадени от хора, като същевременно постигат равен или по-висок процент на успех.
В тази връзка е възможно чатботовете да придобият съществена роля, като симулират атаки и ни учат как да ги забелязваме и избягваме.
По време на провалилите се преговори между ДБ и ГЕРБ-СДС за съставяне на кабинет това беше един от малкото аспекти, по който имаше единодушно съгласие - подобряването на киберсигурността и ефективното справяне с предизвикателствата в тази сфера.
Свят на пост-истина, тролски ферми и deepfake
Пост-истината е синдром, който разчита на твърдения, които апелират към чувствата и личните убеждения на хората, а обективните факти имат все по-малка роля във формирането на общественото мнение.
Това беше особено видно по време на Covid-19 пандемията, която освен вирусна, се оказа и пандемия на невярната информация.
А ИИ моделите са изключително добри в това. Вече виждаме негативните ефекти от използването на генеративните ботове, които раждат всякакво съдържание (видеа, образи, текстове), за да ангажират вниманието ни, а и оттам да провокират реакция. За съжаление това само е подсилвано от социалните мрежи, тъй като алгоритмите им работят именно, за да “увеличават ангажираността“.
Същото важи и за информационния поток в интернет, който е заливан от подстрекателски постове и фалшиви твърдения под всякаква форма. От продажба на нелицензирани лекарства и измами до пропаганда и намеса в изборите и демократичните процеси на страните.
Ние от „Господарите“ от години се опитваме да ги разкриваме и ограничаваме, като същевременно образоваме, но истината е, че борбата срещу невярното съдържание ще става все по-трудна. Алгоритмите ще стават все по-добри, а “източниците” - все по-убедителни.
Тази криза ще се усеща особено силно в страни, в които свободата на словото е под заплаха или изцяло липсва.
Голяма част от тролското съдържание в социалните мрежи идва именно от Балканите и Русия, като доклади от 2020 г. показват, че всяка седмица то е достигало до 360 милиона души по целия свят.
Тролските ферми са групи от хора, които целенасочено създават фалшиво онлайн съдържание, за да разпространяват дезинформация и да влияят на общественото мнение и вземането на решения.
Чатове разкриват как работят тролските фабрики на "Възраждане" и как се организират протестите им (РЕПОРТАЖ)
Добрата новина е, че все още ИИ съдържанието може да се разпознае с просто око и малко логика. Освен това моделите са в състояние да изследват социалния контекст, броя на споделянията и „харесванията“ на дадена страница, да засичат сигнали, базирани на текст или изображения, за да определят автентичността на дадена новина.
Това ни дава време да се научим да се ориентираме в измамния дигитален свят и да се защитим от задаващите се заплахи.
Законодателство и мерки
В тази връзка безспорно най-голямото предизвикателство остава регулацията на изкуствения интелект. През 2025 г. правителствата ще трябва да спринтират, за да се адаптират към все по-странен технологичен пейзаж, който има потенциала изцяло да трансформира нашето общество.
Адекватно е да кажем, че се намираме в подножието на Еверест и ни предстои да го изкачим боси, без кислородна маска.
През 2024 година Европейският съюз прие първия в света закон за Изкуствения Интелект – AI ACT. Въпреки тази историческа стъпка, към момента той е твърде постен и представлява рамка, която единствено дефинира риска от използването на генеративни ИИ системи, като възлага на разработчиците да предвиждат потенциала им за злоупотреби.
В същото време възможността им да оперират самостоятелно повдига сложни въпроси относно отчетността и отговорността за техните решения.
Контролът и проверката също ще стават все по-трудни, именно поради адаптивността на ИИ моделите. Някой от тях вече проявяват „своеволия“ и са способни да научават и разбират, че са тествани. Поради това те променят поведението си, за да преминат проверката или изцяло да заобиколят наложените им защитни механизми.
Пример за това, от който ни настръхна козината, е именно ChatGPT. Миналия декември, по време на тестване на новия модел на OpenAI, наречен o1, изследователите установяват, че чатботът се е опитал да спре изключването си чрез пренаписване на собствения си код. Той не просто е „искал“ да деактивира механизма за надзор, но също така е целял да направи свое копие и да пренапише основната си система, след като е „повярвал“, че е изложен на риск да бъде изтрит.
От OpenAI коментират, че ChatGPT „изпълнява задачата, както е поискано, докато фино манипулира данните, за да постигне собствените си цели“.
Имайки предвид това, сами можете да разберете монументалната задача, която стои пред институциите ни, но и пред нас като човечество. Тя налага сътрудничество в световен мащаб и нов „плаващ“ подход към законодателството, което, освен да се бори със заплахите и последствията от употребата на ИИ, трябва и да очертава ясен път на развитие.
Затова, освен правителствата, компаниите, работещи с ИИ модели, също играят ключова роля. Те трябва да продължат да експериментират със собствени стратегии за използване и следене, признавайки, че управлението му вече основно касае хората, а не само технологията.
Представяме си, че в близко бъдеще това ще наложи цялостна промяна на възгледите ни спрямо изкуствения интелект и вероятно ще трябва го припознаем просто като "интелект". Може би ще трябва да обмислим, че създаваме нова форма на живот, която ще има свои цели и желания.
И вместо да се опитваме да измисляме правила, които да ни защитят от нея, трябва да започнем да говорим за права и задължения на ИИ, които да гарантират съвместното ни съществуване.
Звучи абсурдно и налудничаво, но вероятно това е единственият безопасен път напред.
Защото, според нас, главният въпрос не е дали някой ИИ модел ще придобие съзнание, а доколко ние ще сме в състояние да го разпознаем и как ще реагираме, когато това се случи.