Штучний інтелект стає все більш схильним до "галюцинацій"

Штучний інтелект стає все більш схильним до «галюцинацій»

от автора

в

Результати нових масштабних досліджень вказують на те, що новітні великі мовні моделі ШІ з функцією міркування — зокрема o3 від OpenAI — почали дедалі частіше вигадувати інформацію, тобто фактично брехати своїм користувачам.

Що не так з окремими моделями ШІНайчастіше з проблемами можна зіткнутися під час використання ШІ-моделей від Google та китайського DeepSeek. Аналітики не заперечують той факт, що їх математичні здібності суттєво вдосконалилися, однак кількість помилок в інших запитах у них тільки більшає.Що важливо розуміти, насамперед йдеться про так звані «галюцинації», коли моделі просто вигадують інформацію.На переконання Амра Авадалла — генерального директора стартапу Vectara — такі “галюцинації” будуть завжди, тому що усунути цю проблему просто неможливо.

Прикладом подібної галюцинації став ШІ-бот технічної підтримки інструмента Cursor. Він неправдиво повідомив, що інструмент можна буде використовувати лише на одному комп’ютері. Це спричинило хвилю скарг і навіть видалення акаунтів користувачами. Згодом з’ясувалося, що компанія не вносила жодних таких змін — усе це бот вигадував сам.

Категорія

Технології

23 грудня 2024

Категорія

Технології

11 лютого 18:50

Категорія

Технології

10 квітня 05:00