Close Menu
    Facebook X (Twitter) Instagram
    NNews
    • ГОЛОВНА
    • НОВИНИ
      • Україна
      • Світ
      • Спорт
      • Криптовалюта
    • АВТОМОБІЛІ
    • ТЕХНОЛОГІЇ
      • Кібербезпека
    • НАУКА
    • ІГРИ
    • LifeStyle
      • Курйози
      • Краса та здоров’я
      • Корисні поради
      • Фільми та серіали
      • Афіша
      • Погода
      • Реклама
    Facebook X (Twitter) Instagram
    NNews
    Home»ТЕХНОЛОГІЇ»AI Overviews від Google повертають дивні і навіть небезпечні результати
    ТЕХНОЛОГІЇ

    AI Overviews від Google повертають дивні і навіть небезпечні результати

    Anna NevolinaBy Anna Nevolina27.05.2024Коментарів немає3 Mins Read
    Facebook Twitter LinkedIn Telegram Copy Link
    AI Overviews від Google повертають дивні і навіть небезпечні результати

    Google запустив огляди зі штучним інтелектом. І справи йдуть не надто добре. Минулого тижня функція була запущена в США, а до кінця 2024 року вона пошириться по всьому світу, але поки що результати свідчать про те, що це безлад. Користувачі в соціальних мережах поспішили вказати на кумедні відповіді, аж поки кілька людей не почали помічати, що серед них є й кілька тривожних.

    AI Overviews – це експериментальний інструмент. Коли ви вводите запит, пошукові системи надають результат, згенерований штучним інтелектом. Однак алгоритми машинного навчання не є свідомими. Вони навчені розпізнавати слова і фрази в певних контекстах, тому, коли їх про щось запитують, вони створюють відповідь, яка, як очікується, відповідає запиту. Навіть якщо ШІ доводиться щось вигадувати. Наприклад, створювати фальшиві юридичні справи для адвоката.

    AI Огляди Google отримують відповіді з реальних сайтів, але ШІ недостатньо розумний, щоб відрізнити серйозні відповіді від сатиричних чи гумористичних. Тож “новинні” сайти на кшталт The Onion чи соціальні мережі на кшталт Reddit дають комедійну поживу для нетямущого ШІ.

    Читайте також:  ZTE Blade V50 Design 5G з дисплеєм 6,6″ 90 Гц, камерою 50 Мп випущений на ринок

    her pic.twitter.com/FGbvO923gk

    — follow @bencollins on bluesky (@oneunderscore__) May 23, 2024

    На питання “Скільки камінців я повинен з’їдати щодня?” Оверс впевнено заявляє, що, за даними геологів з Берклі, потрібно з’їдати щонайменше один невеликий камінчик на день. Це з книги “Цибуля”. На питання про те, як зробити так, щоб сир краще прилипав до піци, Овервьюз пропонує їстівний клей. Так, клей використовується в рекламі, щоб сир виглядав більш в’язким, але насправді це твердження походить з допису 11-річної давнини від redditor fucksmith. Будь ласка, не довіряйте fucksmith в цьому питанні.

    У розмові з BBC News представник Google заявив, що ці інциденти були поодинокими. “Приклади, які ми бачили, як правило, є дуже рідкісними запитами і не є репрезентативними для більшості людей”, – йдеться в заяві.

    Читайте також:  Новий штучний інтелект вивчить "історію вашого життя", щоб передбачити, чим воно може закінчитися

    Але все набагато менш смішно, ніж може здатися з цих прикладів. Система сприяє поширенню дезінформації. Вона стверджує, що Барак Обама був першим мусульманським президентом США. На жаль, це неправда – Обама є християнином-протестантом. Пошук в Google перераховує “переваги для здоров’я” куріння, а також те, як може бути корисним біг з ножицями. І як ми можемо не оцінити пропозицію пити власну сечу?

    З огляду на такі шалені результати, знову з’явився інтерес до питання про те, в чому сенс штучного інтелекту. Google стверджує, що він “може позбавити вас від рутинної роботи з пошуку” – але якщо вам потрібно переконатися, що отримана інформація є точною, ви ризикуєте нав’язати дезінформацію людям, які не знають або не мають часу на перевірку джерел. Крім того, штучний інтелект залишає значний вуглецевий слід. Нещодавно повідомлялося, що компанія Microsoft, яка також робить ставку на ШІ, не змогла виконати свої обіцянки бути вуглецево-негативною через ШІ.

    editor's note: that is not a yummy button mushroom

    [image or embed]

    — Kana (@kanaraspberry.bsky.social) Apr 20, 2024 at 21:22

    У пораді про те, як почистити пральну машину, рекомендується використовувати хлорний відбілювач та оцет. У розгорнутій відповіді зазначено, що їх потрібно використовувати один за одним, але при цьому кричуще сказано про те, що їх не можна використовувати разом. При їх змішуванні утворюється газ хлор, який є отруйним.

    Читайте також:  Арканзас подав до суду на TikTok і Meta через їхні "залежні" платформи

    Якщо говорити про отруйність, то штучний інтелект Google Gemini не набагато краще справляється з цим завданням. Нещодавно він переплутав гриб-руйнівник (Amanita bisporigera) з білим грибом-гудзиком. Це один з найнебезпечніших грибів у світі, який може руйнувати тканини печінки та нирок.

    “Доктор Гугл” прийняв нову і небезпечну форму. Але і в цих порадах є частка гумору, все ще завдяки сатиричним сайтам. AI Огляди розкажуть вам, що їсти дупу корисно для здоров’я, роблячи вас ще менш сприйнятливими до застуди та грипу.

    Here's another disturbing health claim that seems to come from a comedy/satire website (edit: or is that from a real website??). pic.twitter.com/GuOj0cnllb

    — Joe Youngblood – SEO, Futurology, AI, Marketing (@YoungbloodJoe) May 23, 2024

    Google ШІ

    Також читайте:

    HP показала OmniBook Ultra 14 з OLED 3K і процесором Snapdragon

    05.04.2026

    В Україні збиратимуть дрони-перехоплювачі за $5000 для США

    05.04.2026

    У коді Claude знайшли «Тамагочі»: що приховала Anthropic

    04.04.2026

    Вам буде цікаво

    Тварина, що стріляє кров’ю з очей: вчені пояснили механізм

    05.04.2026

    HP показала OmniBook Ultra 14 з OLED 3K і процесором Snapdragon

    05.04.2026

    У космосі виявили ще одну аномальну галактику без темної матерії

    05.04.2026
    Facebook X (Twitter) Instagram YouTube Telegram Threads
    • Використання матеріалу
    • Редакційна політика
    • Про нас
    • Контакти
    • Редакція
    © 2026 ThemeSphere. Designed by ThemeSphere.

    Type above and press Enter to search. Press Esc to cancel.