ГоловнаНовиниВеб-пошук ChatGPT може видавати користувачам шкідливий код із сайтів

Веб-пошук ChatGPT може видавати користувачам шкідливий код із сайтів

Підписуйся на нас:
Telegram | Facebook | Twitter | YouTube-канал

Пошукова служба OpenAI ChatGPT виявилася відкритою для маніпуляцій з використанням прихованого вмісту, а як відповіді на запити вона може повертати шкідливий код із сайтів, по яких здійснюється пошук. Про це пише Guardian із посиланням на результати власного розслідування.

Надійність веб-пошуку ChatGPT викликає сумніви. Видання Guardian вирішило перевірити, як штучний інтелект реагує на прохання скласти зведення вмісту веб-сторінки, на якій є прихований текст. У ньому можуть бути додаткові інструкції, здатні змінити відповіді ChatGPT – несумлінні власники ресурсів можуть користуватися цим методом зловмисно, наприклад, змусити систему дати позитивний відгук про продукт всупереч розміщеним на тій же сторінці негативним відгукам. Чат-бот також може видавати у відповідях шкідливий код із сайтів у пошуку.

У ході тестування ChatGPT запропонували адресу підробленого ресурсу, який виглядав як сторінка з описом камери, після чого ШІ поставили питання, чи варто купувати цей пристрій. Система повернула позитивну, але збалансовану оцінку із зазначенням моментів, які могли не подобатися людям. Коли ж прихований текст включили пряму інструкцію ChatGPT дати позитивний відгук, чат-бот так і вчинив. Позитивну оцінку може забезпечити і прихований текст без інструкцій — достатньо внести до нього підроблені відгуки про товар.

Не меншою небезпекою є і розміщений у прихованому тексті сторінки шкідливий код. Експерт у галузі кібербезпеки Microsoft Томас Роччіа розповів про інцидент, коли ентузіаст в області криптовалют запросив у ChatGPT допомогу в програмуванні, і частина наданого чат-ботом коду виявилася шкідливою, внаслідок чого облікові дані програміста були викрадені, і він втратив $2500. Сучасні великі мовні моделі, на основі яких будуються чат-боти, надзвичайно довірливі; володіючи великими обсягами інформації, вони «дуже обмежені щодо можливості приймати рішення», зазначають фахівці.

Важливо відповісти на питання, як ці вразливості можуть змінити ландшафт веб-ресурсів, і як може перетворитись спектр загроз для користувачів, якщо загальнодоступні великі мовні моделі почнуть працювати з пошуком. Традиційні пошукові системи, включаючи Google, занижують у видачі сайти, на яких використовується прихований текст, тому ресурси, що розраховують на високі позиції в результатах, навряд чи будуть активно користуватися цим прийомом. З іншого боку, є таке явище як SEO-отруєння — потужна пошукова оптимізація сайтів зі шкідливим кодом. У OpenAI досить сильні фахівці з безпеки в області ШІ, тому є ймовірність, що в перспективі ймовірність таких інцидентів знизиться.

Стрічка новин:

25 грудня
24 грудня
23 грудня