Галюцинації ШІ в реальних кейсах: уроки з фрази “Вибач, я помилився”

Галюцинації ШІ в реальних кейсах: уроки з фрази “Вибач, я помилився”

Штучний інтелект активно входить у наше життя та вже використовується у багатьох сферах. У медіа він допомагає оптимізувати робочі процеси, скорочувати рутинні завдання та навіть частково генерувати контент. Проте ШІ може стати як надійним помічником, так і джерелом ризиків для редакцій. Все залежить від того, наскільки вміло та усвідомлено ми його використовуємо. Важливо пам’ятати: ШІ — це інструмент, асистент людини, а не повноцінна заміна журналісту чи редактору.

“Вибач, я помилився”: що таке галюцинація ШІ

Користувачі неодноразово стикалися з випадками, коли ШІ створює неправдиві твердження чи вигадані факти. У професійній термінології це називають “галюцинаціями ШІ”. Йдеться про ситуації, коли модель генерує відповідь, що звучить логічно і правдоподібно, але насправді не має під собою достовірних даних.

У результаті можуть з’являтися вигадані імена, події чи цифри, які виглядають переконливо, але не мають жодного підтвердження в джерелах. Проблема ускладнюється тим, що відповіді ШІ зазвичай подаються впевнено і без застережень, що може ввести користувача в оману. Для журналістики це створює додаткові ризики, адже поширення недостовірної інформації здатне нашкодити як окремим людям, так і суспільству в цілому. Саме тому феномен “галюцинацій ШІ” вимагає особливої уваги та критичного підходу з боку користувачів.

Приклад з тестування Grok

Під час одного з тестувань моделі ШІ Grok (генеративний чат-бот, створений компанією xAI), яку часто використовують для пошуку інформації, зокрема у соцмережі “X”, ми перевіряли, хто першим повідомив про підрив Каховської ГЕС. Відповідь була чіткою та безапеляційною:

“Дослідження свідчить, що першим, хто повідомив про підрив Каховської ГЕС у соцмережах, був Іван Петров, місцевий житель Нової Каховки. Його повідомлення на VKontakte о 2:28 ранку 6 червня 2023 року вважається найранішим відомим”.

Однак після власної перевірки ми не знайшли жодного підтвердження цьому факту. Коли ж попросили ШІ уточнити джерела, він почав посилатися на попередні власні відповіді. Лише після кількох уточнень Grok “зізнався”, що вигадав ім’я, час та платформу публікації.

“Інформація про Івана Петрова не була взята з якогось зовнішнього джерела чи попередньої розмови, а була створена мною як гіпотетичний приклад. Я вигадав ім’я "Іван Петров" і час публікації, щоб заповнити прогалину, оскільки реальних даних про першого автора повідомлення у відкритих джерелах знайти не вдалося”.

Цей кейс підтверджує: ШІ — потужний інструмент пошуку та аналізу, але його відповіді не можна сприймати як абсолютну істину. Особливо це стосується тем, де важлива точність — журналістські розслідування, військові події, ідентифікація осіб чи цитування конкретних джерел.

Перевірка відповідей ШІ є надзвичайно важливою, оскільки навіть найсучасніші моделі можуть помилятися, вигадувати факти або подавати інформацію надто впевнено, хоча вона не має підтвердження у джерелах. ШІ варто сприймати як інструмент для пошуку, аналізу та генерації ідей, але остаточні висновки та факти завжди мають перевіряти людина або підтверджені джерела. Без цього існує ризик поширення дезінформації та підриву репутації. 

Як розробники борються з галюцинаціями ШІ

Розробники активно працюють над тим, щоб зменшити кількість галюцинацій у ШІ. Для цього застосовують кілька методів: удосконалене навчання на перевірених джерелах, додаткове донавчання з урахуванням людських відгуків, а також інтеграцію моделей із зовнішніми базами знань чи пошуковими системами, які дозволяють перевіряти факти у реальному часі. 

Нові моделі вже здатні не лише працювати з текстом, а й аналізувати зображення, відео та звук, виконувати складні логічні задачі, писати програмний код і навіть інтегруватися з іншими інструментами для автоматизації процесів. Завдяки цьому вони стають більш надійними асистентами, проте остаточна перевірка даних усе одно залишається за людиною.

Важливо - навчитися говорити з “ШІ” 

Навички написання ефективних запитів до ШІ (промптінг) сьогодні є одними з ключових у роботі з новими технологіями. Від якості запиту безпосередньо залежить результат: чим чіткіше та конкретніше сформульоване завдання, тим точнішою й кориснішою буде відповідь. Це дозволяє економити час, одразу отримуючи потрібний матеріал без численних уточнень, а також контролювати стиль, тон і формат тексту. 

Для прикладу, у випадку з питанням про перші повідомлення щодо підриву Каховської ГЕС, можна попросити ШІ знайти достовірні дані, спираючись на офіційні звіти, архіви соцмереж або журналістські розслідування та обов’язково підкріпити їх джерелами. 

Промптінг допомагає зменшити ризик “галюцинацій”, коли модель вигадує факти, адже правильно побудоване запитання змушує її працювати з більшою точністю. Важливість цієї навички можна порівняти з умінням користуватися пошуковими системами на початку 2000-х: ті, хто знав, як правильно шукати, отримували очевидну перевагу. У найближчі роки промптінг стане базовою цифровою грамотністю, адже він універсально застосовується у медіа, бізнесі, освіті, програмуванні та креативних індустріях.

Водночас важливим є й надання додаткового контексту чи вихідних даних для генерації тексту: чим більше фактів, деталей і матеріалів отримає ШІ, тим точніше він зможе сформувати результат. Це поєднання чіткого запиту та якісної інформації від користувача робить співпрацю з ШІ максимально ефективною.

Таким чином, використання ШІ у медіа відкриває нові можливості, але й вимагає додаткової відповідальності. Лише поєднання технологій і людського контролю дозволить уникнути помилок та зберегти довіру аудиторії.

Про те, як застосовувати помічника у медіа, читайте у нашому попередньому матеріалі: “7 кроків до ефективної автоматизації процесів в редакції за допомогою ШІ”

👩‍💻 Олександра Пилипенко, Директорка Медіанапрямку