Результати нових масштабних досліджень вказують на те, що новітні великі мовні моделі ШІ з функцією міркування — зокрема o3 від OpenAI — почали дедалі частіше вигадувати інформацію, тобто фактично брехати своїм користувачам.
Що не так з окремими моделями ШІНайчастіше з проблемами можна зіткнутися під час використання ШІ-моделей від Google та китайського DeepSeek. Аналітики не заперечують той факт, що їх математичні здібності суттєво вдосконалилися, однак кількість помилок в інших запитах у них тільки більшає.Що важливо розуміти, насамперед йдеться про так звані «галюцинації», коли моделі просто вигадують інформацію.На переконання Амра Авадалла — генерального директора стартапу Vectara — такі “галюцинації” будуть завжди, тому що усунути цю проблему просто неможливо.
Прикладом подібної галюцинації став ШІ-бот технічної підтримки інструмента Cursor. Він неправдиво повідомив, що інструмент можна буде використовувати лише на одному комп’ютері. Це спричинило хвилю скарг і навіть видалення акаунтів користувачами. Згодом з’ясувалося, що компанія не вносила жодних таких змін — усе це бот вигадував сам.
Категорія
Технології
23 грудня 2024
Категорія
Технології
11 лютого 18:50
Категорія
Технології
10 квітня 05:00