Пошукова служба OpenAI ChatGPT виявилася відкритою для маніпуляцій з використанням прихованого вмісту, а як відповіді на запити вона може повертати шкідливий код із сайтів, по яких здійснюється пошук. Про це пише Guardian із посиланням на результати власного розслідування.
Надійність веб-пошуку ChatGPT викликає сумніви. Видання Guardian вирішило перевірити, як штучний інтелект реагує на прохання скласти зведення вмісту веб-сторінки, на якій є прихований текст. У ньому можуть бути додаткові інструкції, здатні змінити відповіді ChatGPT – несумлінні власники ресурсів можуть користуватися цим методом зловмисно, наприклад, змусити систему дати позитивний відгук про продукт всупереч розміщеним на тій же сторінці негативним відгукам. Чат-бот також може видавати у відповідях шкідливий код із сайтів у пошуку.
У ході тестування ChatGPT запропонували адресу підробленого ресурсу, який виглядав як сторінка з описом камери, після чого ШІ поставили питання, чи варто купувати цей пристрій. Система повернула позитивну, але збалансовану оцінку із зазначенням моментів, які могли не подобатися людям. Коли ж прихований текст включили пряму інструкцію ChatGPT дати позитивний відгук, чат-бот так і вчинив. Позитивну оцінку може забезпечити і прихований текст без інструкцій — достатньо внести до нього підроблені відгуки про товар.
Не меншою небезпекою є і розміщений у прихованому тексті сторінки шкідливий код. Експерт у галузі кібербезпеки Microsoft Томас Роччіа розповів про інцидент, коли ентузіаст в області криптовалют запросив у ChatGPT допомогу в програмуванні, і частина наданого чат-ботом коду виявилася шкідливою, внаслідок чого облікові дані програміста були викрадені, і він втратив $2500. Сучасні великі мовні моделі, на основі яких будуються чат-боти, надзвичайно довірливі; володіючи великими обсягами інформації, вони «дуже обмежені щодо можливості приймати рішення», зазначають фахівці.
Важливо відповісти на питання, як ці вразливості можуть змінити ландшафт веб-ресурсів, і як може перетворитись спектр загроз для користувачів, якщо загальнодоступні великі мовні моделі почнуть працювати з пошуком. Традиційні пошукові системи, включаючи Google, занижують у видачі сайти, на яких використовується прихований текст, тому ресурси, що розраховують на високі позиції в результатах, навряд чи будуть активно користуватися цим прийомом. З іншого боку, є таке явище як SEO-отруєння — потужна пошукова оптимізація сайтів зі шкідливим кодом. У OpenAI досить сильні фахівці з безпеки в області ШІ, тому є ймовірність, що в перспективі ймовірність таких інцидентів знизиться.