1. «Один смотрел телефон, другой беседовал, а третий в сторонке наблюдал». Как проводят допросы на границе Беларуси с ЕС
  2. «Мне люди пишут каждый день». Лукашенко «почувствовал», что после выборов в правительстве «начались шалости»
  3. Что надо сделать ВСУ и Западу, чтобы Путин согласился прекратить войну на приемлемых для США, Европы и Украины условиях — мнение экспертов
  4. «Аппетит приходит во время еды». Reuters узнал реакцию Путина на ультиматум Трампа и его дальнейшие планы
  5. Минск снова затопило: общественный транспорт ходит с перебоями, отключились светофоры
  6. Главный злодей — беларус. А еще очень много беларусского языка. Этот сериал сейчас смотрят миллионы по всему миру — рассказываем о нем
  7. Силовики в соцсетях активизировали поиски участников протестов 2020 года — их интересуют выходившие на марши в двух городах
  8. ГУБОПиК заявил о задержании двух беларусов, которые возвращались на родину
  9. На примере блогера Паука силовики и пропаганда пригрозили уехавшим беларусам преследованием родных. Зачем они это делают — мнение
  10. «Настолько скрытый, что сами не понимают». Экс-доцентка МГЛУ Наталья Дулина назвала две черты беларусов, делающие нас антилиберальными
  11. Самый дешевый доллар в году: будут ли дальше снижаться курсы? Прогноз по валютам


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».