Сигнализирай!

За тъмната страна на ChatGPT - не казвайте нищо лично и поверително

Gospodari.com
Gospodari.com
07.04.2023 г.
60
0

За тъмната страна на ChatGPT - не казвайте нищо лично и поверително. Компании, регулатори и наблюдатели в сектора отново повдигат темата за неприкосновеността на личните данни. Използването на ChatGPT вече е ограничено за служителите на десетки компании. Сред тях и JPMorgan Chase, съобщава CNN.

Първоначалните ограничения на ChatGPT бяха въведени по-скоро от предпазливост. Преди дни обаче разработчикът на инструмента OpenAI съобщи, че на 20 март е трябвало временно да го изключи от мрежата, за да отстрани грешка, водеща до неправомерен достъп до лична информация. Въпросният бъг е дал възможност на някои ползватели на ChatGPT да виждат името и фамилията на друг активен потребител, имейл адреса, адреса за плащане, последните четири цифри от номера на кредитната карта и датата на изтичане на валидността ѝ.

Снимка: iStock

Европол: ChatGPT може да бъде използван за престъпни цели

Регулаторните органи в Италия станаха първите, наложили временна забрана за ChatGPT в страната, позовавайки се на опасения за неприкосновеността на личния живот.

„Черна кутия“ с данни

Марк Маккриъри от адвокатската кантора Fox Rothschild LLP коментира пред CNN, че това е като черна кутия.

„Съображенията, свързани с неприкосновеността на личния живот, при нещо като ChatGPT не могат да бъдат преувеличени“, заявява Маккриъри.

ChatGPT стартира публично в края на ноември. Чрез изкуствения интелект потребителите могат да създават есета, разкази и текстове на песни, като просто въвеждат команди. За около два месеца активните му месечни ползватели надхвърлиха 100 млн.

Снимка: iStock

Развитието на изкуствения интелект – революция или опасност?

Междувременно Microsoft инвестира 10 млрд. долара в OpenAI. Компанията внедри GPT технологията в своите продукти, а Google лансира своя конкурент Bard. Редица други компании също дадоха заявка, че работят по свои продукти. Slack например каза, че ще интегрира ChatGPT в чат платформата си.

Генеративни изкуствени интелекти като чатбота на OpenAI работят по сходен начин. Всички те се обучават от огромни масиви от онлайн данни. „Не знаете как тя ще бъде използвана след това“, казва Маккриъри по отношение на въвежданата от потребителите информация при интеракцията с такъв чатбот.

Главният експерт по етиката на изкуствения интелект в Boston Consulting Group Стив Милс също смята, че най-голямото притеснение за неприкосновеността на личния живот, което повечето компании имат във връзка с тези инструменти, е „неволното разкриване на чувствителна информация“.

Снимка: iStock

Изкуствен интелект открива рак преди той да се развие

Политика за поверителност от 2000 думи

Подкрепяната от Microsoft компания OpenAI посочва в своята политика за поверителност, че събира всякакъв вид лична информация от хората, които използват нейните услуги. Обяснява, че може да използва тази информация, за да подобри или анализира услугите си, да провежда проучвания, да комуникира с потребителите и да разработва нови програми и услуги, наред с други неща.

Политиката за поверителност посочва, че може да предоставя лична информация на трети страни без допълнително уведомяване на потребителя, освен ако не се изисква от закона. Ако политиката за поверителност с повече от 2000 думи изглежда малко непрозрачна, това е защото до голяма степен се е превърнала в индустриална норма в ерата на интернет. OpenAI има и отделен документ, в който са записани условията за ползване. По-голямата част от тежестта е поставена върху потребителя.

„Ние не използваме данни за продажба на нашите услуги, реклама или изграждане на профили на хор. Ние използваме данни, за да направим нашите модели по-полезни за хората“. Това се казва в блог пост на OpenAI, публикуван в сряда. „ChatGPT, например, се подобрява чрез допълнително обучение на базата на разговорите, които хората водят с него“.

Чатбот се опитва да убеди професор от Стандфорд да му помогне да “избяга”

Политиката за поверителност на Google, която включва и инструмента Bard, е също толкова обширна. „Не включвайте информация, която може да бъде използвана за идентифициране на вас или на други лица във вашите разговори за Bard“, предупреждават от Google.

„Все още се учим как точно работи всичко това“, казва Стив Милс пред CNN.

Според Милс потребителите и разработчиците понякога дори не осъзнават рисковете за поверителността, докато не стане твърде късно. Пример, който той цитира, са ранните функции за автоматично попълване.

„Не трябва да поставяте в тези инструменти нещо, което не искате евентуално да бъде споделено с други хора“, обяснява Стив Милс.

Изборът на редактора
Коментирай

За да коментираш, трябва да влезеш
в профила си или да се регистрираш!

Вход / Регистрация
Реклама

Още от Новини

Реклама

Трябва да влезеш в профила си, за да използваш тази функционалност.