Інтелектуальна небезпека: виявлено 5 аспектів, які не слід розкривати ChatGPT.

Не слід ділитися з ним деталями свого здоров'я чи фінансів.

Штучний інтелект ChatGPT, розроблений компанією OpenAI, увійшов у життя мільйонів людей, які щодня надсилають понад мільярд запитів у чат.

Але на тлі цього успіху посилюються побоювання з приводу приватності. ChatGPT уже отримував заборону в Італії, і небезпідставно - все, що ви вводите в чат, може бути використане для навчання, переглянуте людьми або навіть випадково показане іншим користувачам.

OpenAI щиро попереджає: ваша інформація може бути використана в процесах машинного навчання. Тому доцільно розглядати все, що ви вводите в чат, як можливу публічну інформацію. Саме з цієї причини Forbes виділив п'ять тем, які не варто обговорювати з ChatGPT.

Запитувати у штучного інтелекту, як зламати банкомат, вкрасти пароль у сусіда або маніпулювати іншими людьми, не лише неетично, але й може призвести до серйозних наслідків. Багато сервісів на базі АІ ведуть моніторинг таких запитів і, у випадку значних правопорушень, можуть передавати інформацію до правоохоронних органів.

Наприклад, у Великій Британії та Європейському Союзі заборонено використовувати ChatGPT для отримання відомостей щодо створення DeepFake відео, що зображують реальних осіб.

ChatGPT не призначений для того, щоб ви ділилися з ним інформацією про доступ до вашого банківського рахунку. Навіть якщо штучний інтелект інтегрований з зовнішніми платформами, уникайте введення своїх паролів. Вже траплялися ситуації, коли особисті дані одного користувача випадково надавалися іншим у відповідях.

Цей же принцип стосується і ваших фінансових даних. Ні номера карток, ні CVC, ні реквізити рахунків, а також будь-які документи - нічого з цього не слід довіряти чат-боту.

На відміну від платіжних платформ, у ChatGPT немає шифрування, двофакторного захисту або гарантії видалення даних після обробки. Уся ця інформація може бути вразливою для злому, фішингу або витоків.

Робочі звіти, клієнтські бази, комерційні пропозиції і, особливо, внутрішні документи компаній - усе це має залишатися поза публічним ШІ. Приклад Samsung, де співробітники завантажили в ChatGPT конфіденційні матеріали.

Навіть якщо ви плануєте лише уточнити свої симптоми, важливо пам'ятати, що штучний інтелект не має медичної кваліфікації. Натомість він може запам'ятовувати, об'єднувати та аналізувати дані з різних бесід. Тому ваші записи можуть бути використані в інших ситуаціях.

Для бізнесу, що працює з медичними даними, це може закінчитися штрафами за порушення законів про конфіденційність. А для звичайних користувачів - просто втратою особистих кордонів.

ШІ не сховище, а мегафон. Усе, що ви ввели, теоретично може спливти. Тому найкраще правило безпеки: не вводьте нічого, що не готові опублікувати на головній сторінці інтернету.

Технології ШІ розвиваються швидше, ніж юридична база і система захисту. Поки не з'явився реальний контроль, уся відповідальність - на нас самих.

Раніше дослідження творців ChatGPT з OpenAI виявили, що спілкування зі штучним інтелектом підвищує рівень самотності. Для проведення досліджень вчені спостерігали за майже тисячею людей протягом місяця.

#Бізнес #Сполучене Королівство #Європейський Союз #Банк #Обліковий запис користувача #Інтернет #Онлайн-чат #Штучний інтелект #Forbes (журнал) #Samsung Electronics #OpenAI #ChatGPT #Фішинг #Конфіденційність #Пароль #Банкомат #Машинне навчання #Шифрування

Читайте також

Найпопулярніше
Компания миллиардера Джеффа Безоса продала первый билет на полет в космос
В Украине увеличат штрафы за нарушение авторских прав
»Минай» заменит «Олимпик» в УПЛ
Актуальне
Співзасновник mono та керівник на вищому рівні в ПриватБанку. Фірма Дубілета успішно запустила свій необанк в Індії.
Тарас Цимбалюк відкрився про свої серцеві проблеми і повідомив про поставлений йому діагноз.
Пожежі охопили склади з лікарськими засобами та харчовими продуктами: оприлюднено нові подробиці наслідків удару по Києву. Відео.
Теги