Анастасія Ковтун
“Терміновий репост!”, “ця історія вражає кожного”, “підтримайте бабусю/дідуся/близнюків…”. Якщо ви – користувач соціальних мереж, особливо Facebook чи TikTok, то скоріше за все чули такі клікбейтні фрази, завжди поєднані з емоційними зображеннями. На них нібито військовий після полону, хворі діти, незвично схожі близнюки, особливо старенькі, захоплива історія кохання чи інші драматичні сюжети, що гарантовано привертають увагу.
Онлайн-простір сьогодні переповнений інформацією: стає дедалі важче вирізняти якісний контент поміж фейків, реклами та маніпуляцій. А з появою штучного інтелекту інформаційне поле стало результатом генерації тисяч зображень, текстів та фактів, що зовсім не відповідають дійсності й ефективно сублімують інтереси авдиторії.
Науково-технічний прогрес кидає нові виклики користувачам: медіаграмотність тепер не перевага, а базова необхідність. Адже технології, які створили для полегшення життя, навчання чи творчості, тепер активно використовують для створення дезінформації, маніпуляцій та фейків. Штучний інтелект має унікальні можливості для обробки великих масивів даних, створення контенту й автоматизації процесів. Це і робить його сьогодні одним із найбільш впливових ресурсів для ведення інформаційних воєн. Щоб підірвати поле бою зсередини тепер достатньо запустити вірусну бомбу дезінформації, яка зруйнує довіру, посіє паніку або змінить громадську думку.
Ще донедавна змонтувати професійне відео зі зміною облич, міміки, голосу або створити переконливу “новину” могли лише професіонали. Тепер це – проста забаганка, доступна кожному користувачу Інтернету. Глибокі нейронні мережі дозволяють створювати реалістичні зображення, відео, аудіозаписи й тексти за допомогою дипфейк-генераторів, нейромереж, ботів чи навіть плагінів у TikTok. ШІ сьогодні не просто допомагає створювати контент – він імітує реальність.
Показовим є приклад дипфейк відео з “капітуляцією” президента Зеленського у 2022 році. Штучний голос, переконлива мова і впевнене обличчя, на перший погляд – правдоподібно. І хоча фейк швидко спростували, він став тривожним сигналом для суспільства: тепер війна не лише на полі бою, а й у кожного в телефоні.
Схожі приклади є по всьому світу – від відео з політиками до фальшивих новин про катастрофи, протести, війни. За цим часто стоять не окремі пранкери, а й державні структури, фабрики тролів та алгоритми, що автоматично просувають вигідний наратив.
Тут варто згадати про рівні використання ШІ в інформаційному полі. Бо саме на них і ґрунтується той самий переконливий вплив на широкі маси.
Перший рівень – це створення контенту. Генерування відео (дипфейки, несправжні катастрофи), зображень (сенситивні Фейсбук-картинки), голосових чи аудіофайлів (непристойні пісні голосом політиків).
Другий – масштабування. Використання ботоферм, фейкових акаунтів та автоматизованих кампаній.
І третій – таргетинг. Це підбір відповідної авдиторії через урахування алгоритмів соцмереж та психологічних слабкостей користувачів (емоції, страхи, політичні вподобання). Результатом стає гіперперсоналізована дезінформація, консервування груп користувачів у бульбашки й формування переконань, які підсилюють суспільну напругу, формують негативні настрої серед груп населення.
Інший бік генеративного контенту – руйнування здорового глузду та привернення невиправданої уваги. Повернемося до тих самих маніпулятивних картинок у Фейсбук та TikTok. Ці красиві зображення зворушують, шокують або зачіпають базові емоції – співчуття, гнів, захоплення, страх. Супровідний текст, ніби історія з кіно, закликає до взаємодії з постом, аби “підтримати” вигаданих персонажів із такими непростими історіями життя. Це провокує людей на репости, коментарі,вподобання та збереження, тобто максимізує охоплення. А оскільки Фейсбук просуває контент із високою активністю, він швидко розповсюджується просторами мережі.
Нерідко сюжети цих постів є пов’язаними з релігійною тематикою, що є найбільшою маніпуляцією для релігійного населення України. Емоційний клікбейт використовують для багатьох цілей. Серед них:монетизація контенту природнім шляхом або через “пожертви на благо”,нарощування авдиторії для продажу сторінки чи рекламування чогось,переведення трафіку на сумнівні портали, шахрайські сторінки. Крім того,фейкові емоційні історії допомагають створити “теплий” і праведний образ сторінки, яка нібито просуває людяність, добро і чесність. Це спрацьовує для обходу модерації соцмереж та встановлення довіри з користувачами,аби потім нативно повести за собою до інших дезінформаційних чи пропагандистських джерел.
Постійне споживання та поширення красивих і вражаючих зображень стирає будь-які попередньо засвоєні навички медіаграмотності, критичного мислення й ускладнює виявлення правдивої інформації.Натомість створює установку довіряти візуальному без перевірки, плутати штучне з реальним, звикати до естетизації болю й трагедії. Навряд чи ми зможемо протистояти наростаючому впливу ШІ у медіаполі. Великі компанії, як от Google, Meta, OpenAI чи Microsoft,запровадили маркування контенту, створеного за участю ШІ, та створюють інструменти для виявлення фейків, додатково навчають цього модераторів.Проте, цього все ще недостатньо, аби фільтрувати й контролювати інфопростір. Найперше на його чистоту впливає саме цифрова поведінка користувачів. Наскільки активно вони взаємодіють із фейками, чи поширюють їх для друзів, чи перевіряють інформацію в інших джерелах?
Медіаграмотність сьогодні важлива як ніколи. Це ключ до протидії дезінформації та пропаганді, особливо під час війни, протестів, збройних конфліктів. Уважність до подій у навколишньому світі та онлайн-мережі може зберегти репутацію, честь та навіть демократичний лад. Адже фейкові новини, маніпулятивні зображення, вирвані з контексту цитати здатні підірвати довіру до інституцій, посіяти ворожнечу.
Медіаграмотна людина – це не просто споживач інформації, а активний її аналітик: той, хто вміє перевіряти джерела, розпізнавати емоційні тригери й ставити критичні запитання. У часи, коли інформація перетворюється на зброю, критичне мислення – найнадійніший захист.
Слідкуйте за нами у соціальних мережах: