Псих, насильник и мошенник — чат-бот Copilot «обвинил» судебного репортера в преступлениях, которые / репортёр :: Microsoft (Майкрософт) :: Copilot :: AI :: новости

новости Copilot AI Microsoft репортёр 

Псих, насильник и мошенник — чат-бот Copilot «обвинил» судебного репортера в преступлениях, которые он освещал

 Передает TheConversation.

Издание отмечает, что немецкий журналист решил ввести свое имя и поиск в Copilot, чтобы посмотреть, как чат-бот воспримет его статьи.

Copilot утверждал, что Бернклау был сбежавшим из психиатрической больницы, осужденным за насилие над детьми и мошенником, наживающимся на вдовцах.

Информация о Бернклау, конечно, не соответствуют действительности и являются примерами «галлюцинаций» генеративного ИИ.

Издание добавляет, что мужчина регулярно освещал судебные процессы по уголовным делам о злоупотреблениях, насилии и мошенничестве, а его работы публиковались в национальных и международных газетах. Статьи журналиста, по-видимому, должны были быть включены в чат-бот, которую он использует по поиску слов, относящиеся к характеру дел.

Поскольку Бернклау провел годы, работая репортером в суде, когда Copilot нашел о нем наиболее вероятные слова, связанные с его именем, то относ их к преступлениям, которые он освещал как репортер. 

Microsoft
Copilot,новости,Copilot,AI,Microsoft,Майкрософт,репортёр
Подробнее
Microsoft Copilot
новости,Copilot,AI,Microsoft,Майкрософт,репортёр
Еще на тему
Развернуть

Отличный комментарий!

gwarlock gwarlock20.09.202417:43ссылка
+47.0
чувак грамотно абузит "особое мнение" ИИ
toxa379 toxa379 20.09.202417:30 ответить ссылка 28.8

А вот теперь нужно и разобраться. Может "глючит" как раз так называемого "ЖУРНАЛИСТА".

guffi_oo guffi_oo 20.09.202417:35 ответить ссылка 41.5
Вот и ответ всем перспективам использования нейросетей в судебном деле.
Был ещё случай, какой-то адвокат в США использовал чатжпт для написании своей речи. В итоге жпт нагаллюционировал несуществующие судебные прецеденты, суд адвоката пропесочил и лишил лицензии за обман суда.
Ellarihan Ellarihan 20.09.202417:43 ответить ссылка 27.9
Цензура и ограничения тут не при чём. Проблема фундаментальная, в самой сути LLM (Large Language Models, на которых построены современные генеративные АИ). Их принцип работы -- выдавать текст, _похожий_ на правду, без какой бы то ни было проверки истинности, поэтому при требовании предоставить доказательства они начинают гнать булшит. Хорошая статья на тему: https://link.springer.com/article/10.1007/s10676-024-09775-5?fbclid=IwZXh0bgNhZW0CMTEAAR3thWxJDqLWCQGC_mJD5drBKBVdrndFKhYyDxUgU90KqUnwZoesomq-MV0_aem_ZmFrZWR1bW15MTZieXRlcw
Пример с адвокатом есть в статье. Другой пример когда пытались использовать ЧатЖПТ при написании статей по биологии. Он нагенерил неплохой текст, но когда его попросили предоставить доказательства, дал ссылки на несуществующие статьи.
Amateur Amateur 20.09.202418:00 ответить ссылка 26.0
Нет, не так. Ты назвал чатжпт сломаным из-за того, что он работает именно так, как и замышлялось. Лишь наивные люди и долбоебы, выдумывающие себе что-то не сверяясь с реальностью, ожидают что чатжпт пишет правду, а не ВОЗМОЖНО правду,
fouko fouko 20.09.202420:22 ответить ссылка 9.4
Нихера. Определенное отличие copilot -- он указывает линки, откуда взял инфу. Т.е. кожаный мешок может провести факт-чекинг. Но если адвокату было похуй на это, то очень хорошо что он лишился лицензии.
Wolfdp Wolfdp 20.09.202421:17 ответить ссылка -0.1
ну и когда начинают?)
gwarlock gwarlock 20.09.202417:43 ответить ссылка 47.0
А на какую работу нынче ищут насильников?
На журналистов, конечно
Ээээ, ну в РФ есть вакансии, но так как политота, на этом мысль заканчивается
Vulpo Vulpo 21.09.202410:57 ответить ссылка -1.4
Это же Нил Деграсс Тайсон
Zurgah Zurgah 20.09.202423:30 ответить ссылка 0.5
- Известный репортер, призер Пулитцеровской премии, журналист - кто ты без этого всего?
- Псих, насильник и мошенник!
*с пафосом супергеройских комиксов* «Самый неуловимый преступник, головная боль всего департамента полиции, гений преступного мира, который держит в страхе весь город. Дело настолько сложное, что было решено подключить к нему ИИ. И что же этот "И-И"? Он обвинил в этих преступлениях нашего непримеримого героя, злейшего врага этого мерзавца, гениальнейшего сыщика-журналиста, который настолько талантлив, что всегда заканчивал обыск на местах преступления ещё до того, как туда поспевала примчаться полиция! Не, ну в представляете какая наглость?!»

Так и у человеков память также работает: "помнится, кого-то он ограбил, или его ограбили... одно точно, мутный персонаж"

hippon hippon 20.09.202419:29 ответить ссылка 6.8
Человеки забывают детали\факты, а компьютеры способны неограниченно долго помнить что угодно с абсолютной точностью.
Wave Wave 20.09.202420:24 ответить ссылка 1.0
Вот только абсолютная точность требует огромных вычислительных мощностей, бахаем p=0.96 и сойдёт.
yoburg yoburg 21.09.202404:38 ответить ссылка 0.9
При чём здесь p=0.96, когда я говорю о компьютерной памяти? Как положил ты в ПЗУ файл, в котором такая-то последовательность байт, так и через много лет в этом файле будет строго вот такая последовательность байт. И для этого требуются вычислительные мощности, которые существовали больше полусотни лет назад.
Про отказ оборудования сейчас не говорим, это отдельное обстоятельство.
Wave Wave 21.09.202409:54 ответить ссылка 0.0

ИИ не логинится в базы данных в поиске информации по гражданину. Он устанавливает корреляции между словами, и запоминает эти корреляции. Вот из этих корреляций ИИ понял что в ответе на запрос рядом с фамилией этого персонажа должны быть слова про криминал и построил к ним мостик. Было бы у него больше факторов порядка на 2, может он и более подробные корреляции смог бы сохранить, но роль этого человека в базе данных не настолько велика, поэтому в приоритет попала какой-нибудь Наполеон, а ему просто досталось соседство с яркими заголовками. Человеческий мозг примерно так же и работает для общих фактов.

hippon hippon 22.09.202414:53 ответить ссылка 0.0
Дело не в памяти, а в том, что нейросеть не понимает о чем, говорит. Это просто примерный набор слов по логическим картам, который должен с наибольшей по мнению алгоритма вероятностью удовлетворять запросам пользователя. Нейросеть не понимает смысла. Это лишь рандомный фарш из базы данных по тегам на основе запрса.
Человек тоже грубо говоря не понимает. Но есть дополнительные нейронки, которые так или иначе "согласуют", "планируют", итп. А нынешние нейронки это одна большая ассоциативная кора, иногда с лорой и триггерами.
Vulpo Vulpo 21.09.202411:02 ответить ссылка -1.1
— Пиф, а что такое человек с точки зрения физики? Я имею в виду не тело, а личность.
— Ну… — протянула она, — …В общем, это сеть конечных автоматов фон Неймана, которые объединены в рекуррентную сеть Хопфилда. Которая тоже конечный автомат, но только с переменной архитектурой, и условным потенциалом, в общем, такая сеть с ассоциативной памятью, обратными связями и возможностью самообучения решению задач, теоретически, любого класса, если только они сводятся к задаче минимизации потенциала… Уф!
— Короче, — заключил разведчик, — по-твоему, личность, это конкретная нейронная сеть.
— В общем, да, хотя в процессе жизни архитектура сети качественно меняется.
— Вот! — произнес он, — А скажи: личность в 10 лет, в 20, в 40 и в 80 лет одна и та же?
— М-м… Строго говоря, нет. Просто, в социальной сети практически удобнее так считать.
— Удобнее считать, хотя с позиции физики и кибернетики это не так? — уточнил фон Вюрт.

Насколько я понимаю, это описание более-менее близко к современному научному взляду на то, как работают мозги.
Wave Wave 21.09.202415:26 ответить ссылка -0.9
личности как таковой тоже нет. По инерции философы потащили "душезаменитель", так как у нас вся философия на этом концепте.

Есть некоторый функционал по вычислению личных границ, но это опять же, не некое объективное явление, а способ успешно функционировать. Опять же, есть и баги в виде фантомных конечностей, разростания личных границ за пределы своего тела (к примеру сексуальный партнер или свой ребенок), в другую сторону тоже бажит ака ампути всякие.
Vulpo Vulpo 21.09.202419:49 ответить ссылка 0.7
Этим надо тыкать в очередного свидетеля чатжпт в комментах, когда на вопрос по поиску игры/фильма/книги, например, они начинают с видом дохуя экспертов втирать нейродичь.
R-Duke R-Duke 20.09.202422:05 ответить ссылка 1.4
вот будет прикол если через пару лет выяснится что этот репортер Псих, насильник и мошенник.
По некоторым запросам тоже видел, что ИИ, если не находит правильной инфы, то ищет окольную инфу, и генерит рандомный ответ исходя из этой информации, ведь говорить "я не знаю" он не умеет.
Не «не умеет», а запрограммирован так, чтобы выдать хоть какой-то результат, лишь бы не никакого.
Wave Wave 21.09.202409:56 ответить ссылка 0.4
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
steve8708
15h —
copilot has had enough today
#!/usr/bin/env node "use strict";
console.log^'fijc/c yoi/'|
O Q * v
2 likes *9Z
vs code + copilot + 1000 extensions
vs
notepad++ </l
Tsarathustra ©
@tsarnick
Satya Nadella says Windows PCs will have a photographic memory feature called Recall that will remember and understand everything you do on your computer by taking constant screenshots
подробнее»

не панорама Windows Операционная система Microsoft,Майкрософт

</l Tsarathustra © @tsarnick Satya Nadella says Windows PCs will have a photographic memory feature called Recall that will remember and understand everything you do on your computer by taking constant screenshots
FAULT
MONKEyuSER.COM
LIE’LL PIX THE ISSUE ONCE COPILOT GOES SOCK ONLINE