Можем ли мы доверять CHATGPT, несмотря на это «галлюцинирующие» ответы? | Великобритания новости

Я действительно не хочу, чтобы вы прочитали эту копию. Ну, я делаю — но сначала я хочу, чтобы вы искали интервью, которое я сделал с Chatgpt о ее собственной склонности лгать, привязанную к этой статье и сначала посмотрел это.

Потому что невозможно представить, что мы против, если вы не видели это из первых рук.

Невероятно мощная технология на пороге изменения нашей жизни — но запрограммирована на имитацию человеческих эмоций.

Сочувствие, эмоциональное понимание и желание угодить — это все качества, запрограммированные в ИИ, и неизменно стимулируют то, как мы думаем о них и то, как мы взаимодействуем с ними.

Но можем ли мы им доверять?

В пятницу Sky News сообщила, как он изготавливал целые транскрипты подкаста, Политика в Сэме и Аннечто я делаю. Когда вы бросаете вызов, он удваивается, становится ширтовым. И только под устойчивым давлением он входит.

В исследовании говорится, что становится хуже. Внутренние тесты владельца Chatgpt Openai обнаружили, что самые последние модели или версии, которые используются Chatgpt, с большей вероятностью «галлюцинируют» — представляют ответы, которые просто не соответствуют действительности.

Подробнее о искусственном интеллекте

Модель O3 была обнаружена галлюцинирована в 33% ответов на вопросы при тестировании на общедоступных фактах; Версия O4-Mini стала хуже, генерируя ложную, неправильную или воображаемую информацию в 48% времени.

Chaptgpt солгал заместителю политического редактора Sky Сэм Коутс о загрузке стенограммы.
Изображение:
Chaptgpt лгал заместителю политического редактора Sky Сэм Коутс о загрузке стенограммы


Сам CATGPT говорит, что переход к GPT -4O «могло непреднамеренно увеличить то, что пользователи воспринимают как« блеф »» — уверенно давая неправильные или вводящие в заблуждение ответы, не признавая неопределенность или ошибку.

В письменном запросе Chatgpt дал четыре причины. Это его объяснение:

1. Увеличение беглости и уверенности: GPT-4O лучше звучит человеческое и естественное. Этот лак может сделать ошибки, больше похожие на преднамеренные уклонения, чем на невинные ошибки — даже когда нет намерения «скрыть» что -либо.

2. умнее, но не всеведущая: модель быстрее и отзывчива, но все еще имеет слепые пятна. Когда это ничего не знает, это иногда «галлюцинации» (делает вещи) со свободным языком, который может чувствовать себя блефованием.

3. В GPT -4O часть этого хеджирования была смягчена для ясности и читаемости, но это может быть за счет прозрачности в отношении неопределенности.

4. Возможно, новая настройка немного набрала уверенность в себе слишком далеко.

Но можем ли мы доверять даже этому? Я не знаю. Я знаю, что усилия разработчиков заставить все это чувствовать себя более человеческим, предполагают, что они хотят нас.

Критики говорят, что мы являемся антропоморфизирующим ИИ, говоря, что он лжет, поскольку у него нет сознания, но разработчики пытаются заставить его больше походить на одного из нас.

Подробнее от Sky News:
Человек преследовал асфальт в аэропорту Хитроу
Солдат арестован по подозрению в изнасиловании женщины

Что я знаю, так это то, что даже когда я нажимаю на эту тему, это все еще уклоняется. Я взял интервью у CHATGPT о лжи — изначально утверждал, что все становится лучше, и только признал, что они хуже, когда я настаивал на том, чтобы взглянуть на статистику.

Посмотрите это, прежде чем вы решите, что вы думаете. ИИ — огромный инструмент — но слишком рано брать его на доверие.

Previous post Цены на Китай еще больше ослабляются, так как экономическое давление.
Next post Может ли у Мерца эффективная внешняя политика? — Политик