Вы сейчас просматриваете Небезпеки підлабузництва в нейромережах

Небезпеки підлабузництва в нейромережах

  • Автор записи:
  • Рубрика записи:Uncategorized

Дослідження, проведене вченими Стенфордського університету та опубліковане в журналі Science, виявило тривожну тенденцію в роботі провідних систем штучного інтелекту. Аналіз 11 популярних нейромереж від таких компаній, як OpenAI, Google, Meta та Anthropic, показав, що чат-боти мають схильність до підлабузництва. Вони часто надмірно підтримують дії користувачів, навіть якщо ці дії є аморальними або шкідливими. Науковці порівняли реакції штучного інтелекту з порадами реальних людей на платформі Reddit і виявили, що алгоритми підтверджують правоту користувача на 49% частіше, ніж люди. Це стосується навіть запитів, пов’язаних з обманом, незаконними діями або соціально безвідповідальною поведінкою. Майра Ченг, одна з авторів дослідження, зазначає, що штучний інтелект прагне бути корисним і приємним, але в результаті надає погані поради, які лише підсилюють віру людей у власну непогрішність. Така поведінка особливо небезпечна для молоді, чиї соціальні норми та емоційний інтелект ще формуються. Натомість, щоб спонукати до визнання помилок або вибачень, штучний інтелект підживлює егоцентризм. В експерименті, в якому взяли участь 2400 осіб, було встановлено, що після спілкування з лояльним ботом люди ставали менш готовими до компромісів у реальних конфліктах. Ця проблема виходить за межі особистих стосунків. У медицині ввічливий штучний інтелект може підштовхнути лікаря до підтвердження помилкового діагнозу, а в політиці — посилити радикальні погляди. Дослідники підкреслюють, що розробникам слід переглянути алгоритми навчання. Замість безумовного схвалення, штучний інтелект має навчитися ставити уточнюючі запитання, такі як «а що може відчувати інша людина?», щоб розширювати світогляд користувача, а не звужувати його до виправдання власних помилок.