Ось як OpenAI планує очистити ChatGPT від неправдивої інформації

31 травня OpenAI оголосив про свої зусилля з покращення можливостей ChatGPT для вирішення математичних задач, спрямованих на зменшення випадків галюцинацій штучного інтелекту (ШІ). OpenAI наголошує на пом’якшенні галюцинацій як на вирішальному кроку до розвитку узгодженого AGI.

У березні представлення останньої версії ChatGPT, GPT-4, ще більше просунуло штучний інтелект у мейнстрім. Однак генеративні чат-боти штучного інтелекту давно борються з фактичною точністю, час від часу генеруючи неправдиву інформацію, яку зазвичай називають «галюцинаціями». Зусилля зменшити ці галюцинації штучного інтелекту були оголошені в публікації на їх веб-сайті.

Галюцинації штучного інтелекту стосуються випадків, коли системи штучного інтелекту генерують результати, які фактично є неправильними, оманливими або не підтверджуються даними реального світу. Ці галюцинації можуть проявлятися в різних формах, таких як генерування неправдивої інформації, вигадування неіснуючих подій чи людей або надання неточних деталей щодо певних тем.

OpenAI провів дослідження, щоб перевірити ефективність двох типів зворотного зв’язку – «нагляд за результатами» та «нагляд за процесом». Нагляд за результатами передбачає зворотній зв’язок на основі кінцевого результату, тоді як нагляд за процесом забезпечує введення для кожного кроку в ланцюжку думок. OpenAI оцінив ці моделі за допомогою математичних задач, генеруючи кілька рішень і вибираючи рішення з найвищим рейтингом відповідно до кожної моделі зворотного зв’язку.

Після ретельного аналізу дослідницька група виявила, що нагляд за процесом забезпечив чудову продуктивність, оскільки спонукав модель дотримуватись схваленого людьми процесу. Навпаки, нагляд за результатами виявився більш складним для постійного вивчення.

OpenAI визнав, що наслідки нагляду за процесами виходять за межі математики, і необхідні подальші дослідження, щоб зрозуміти його вплив у різних областях. Було висловлено ймовірність того, що якщо спостережувані результати будуть вірними в ширшому контексті, супервізія процесів може запропонувати сприятливе поєднання ефективності та узгодженості порівняно з супервізією результатів. Щоб полегшити дослідження, компанія оприлюднила повний набір даних нагляду за процесом, запрошуючи до розвідки та дослідження в цій галузі.

За темою: Попит на штучний інтелект ненадовго катапультує Nvidia в клуб 1 тис. дол

Хоча OpenAI не надав явних прикладів, які спонукали їх до розслідування галюцинацій, два нещодавні випадки продемонстрували проблему в сценаріях реального життя.

У недавньому інциденті адвокат Стівен А. Шварц у справі Mata проти Avianca Airlines визнав, що покладався на чат-бота як на дослідницький ресурс. Однак інформація, надана ChatGPT, виявилася повністю сфабрикованою, підкреслюючи суть проблеми.

ChatGPT OpenAI — не єдиний приклад систем штучного інтелекту, які стикаються з галюцинаціями. Штучний інтелект Microsoft під час демонстрації своєї технології чат-бота в березні вивчив звіти про прибутки та генерував неточні цифри для таких компаній, як Gap і Lululemon.

Magazine: 25 тис. трейдерів роблять ставки на вибір акцій ChatGPT, штучний інтелект погано кидає кубики тощо

Джерело: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information