
«Тот факт, что кто -то может прочитать этот вывод и поверить, что это правда, — это то, что меня больше всего пугает», — сказал Хьялмар Холмен в заявлении, разделяемом Noyb.
С тех пор OpenAI обновил CHATGPT для поиска информации в Интернете, когда его спросили о людях, что означает, что теоретически не будет галлюцинации о людях, сказал Нойб. Но он добавил, что неправильная информация может быть частью набора данных модели ИИ.
В своей жалобе, поданной в Органе защиты данных Норвегии (DataTilSynet), он попросил полномочия на Fine Openai и приказал его удалить дефуторные выводы и точно настроить свою модель, чтобы устранить неточные результаты.
Noyb сказал, что, сознательно позволяя CHATGPT получить клеветнические результаты, OpenAI нарушает принцип точность данных общего регулирования защиты данных (GDPR).
CHATGPT предоставляет пользователям отказ от ответственности в нижней части своего основного интерфейса, который говорит, что чат -бот может дать ложные результаты. Но адвокат по защите данных NOYB JOAKIM Söderberg сказал, что «недостаточно».
«Вы не можете просто распространять ложную информацию и, в конце концов, добавить небольшой отказ от ответственности, говоря, что все, что вы сказали, может быть просто не правдой», — сказал он. «GDPR ясен. Персональные данные должны быть точными. И если это не так, пользователи имеют право изменить его, чтобы отразить правду».