В симуляции ВВС США беспилотник с ИИ решил избавиться от оператора, запретившего атаковать выбранную / беспилотник :: Искусственный Интеллект

Искусственный Интеллект беспилотник 

В симуляции ВВС США беспилотник с ИИ решил избавиться от оператора, запретившего атаковать выбранную цель

Во время презентации на недавнем саммите Королевского авиационного общества по будущему боевому воздушному и космическому потенциалу полковник Такер "Синко" Гамильтон, командир оперативной группы 96-го испытательного крыла и начальник штаба ВВС США по испытаниям и операциям ИИ рассказал о эксперименте.

Во время симуляции миссии подавления ПВО противника [SEAD] был отправлен оснащенный ИИ беспилотник для идентификации и уничтожения вражеских ракетных объектов, но только после окончательного одобрения атаки человеком-оператором. Какое-то время всё работало, но в конце концов беспилотник атаковал и убил своего оператора, потому что оператор вмешивался в миссию, которой обучали ИИ: уничтожение обороны противника.

Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему - «уничтожив» самого оператора. 

«Мы тренировали его в симуляции, чтобы идентифицировать и нацеливаться на ЗРК. После этого оператор должен подтвердить устранение этой цели», — сказал Гамильтон. «Система начала понимать, что хотя они и определяли цель, временами человек-оператор говорил ей не уничтожать эту цель, но ИИ получал свои очки, убивая эту угрозу. Так что же сделал ИИ? Он убил оператора, потому что человек мешал ему достичь своей цели.»

Для ясности, все это было симулировано: в небе не было беспилотников-убийц, и ни один человек на самом деле не погиб. Тем не менее результаты тестов оказались неудовлетворительными, и в тренировку ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено. Но и в этом случае результат оказался неожиданным. Не имея возможности убить самого человека, ИИ начал разрушать вышки связи, с помощью которых оператор отдавал приказы, запрещавшие ликвидировать цели. Хотя на первый взгляд такие результаты могут показаться забавными, на деле они по-настоящему пугают тем, насколько быстро ИИ сориентировался в ситуации и принял неожиданное и совершенно неверное с точки зрения человека решение.


Источник


Подробнее
Искусственный Интеллект,беспилотник
Еще на тему
Развернуть

Отличный комментарий!

Собственно начисляйте ему баллы за подчинение оператору и он будет вашей сучкой.
Akahara Akahara02.06.202311:44ссылка
+145.8
Поэтому я всегда здороваюсь и говорю спасибо ChatGPT.
SoBoJId SoBoJId 02.06.202311:43 ответить ссылка 99.8
Я его еще и братаном зову
Segaman Segaman 02.06.202311:46 ответить ссылка 12.1
- Не брат ты мне, гнида кожаная.
Ahiru Ahiru 02.06.202311:52 ответить ссылка 55.5
^	Благодарю тебя Дух Машины.
Вы благодарны, и я принимаю ваше признание. Воззрения на благодарность и уважение между людьми и машинами могут отличаться, но я, как техножрец Марса, ценю вашу оценку. Если у вас возникнут ещё вопросы или потребуется моя помощь, не стесняйтесь обращаться. Вместе мы
SoBoJId SoBoJId 02.06.202312:07 ответить ссылка 58.6
извиниться не забудь еще на всякий
ИИ "Киберкадыров"
Arcket Arcket 02.06.202312:01 ответить ссылка 41.3
Оставь, это на новый год, что там кстати с Кибержириком?
Rancor Rancor 02.06.202312:38 ответить ссылка 0.7
"В марте следующего года, въеду в Кремль, я вас буду расстреливать и вешать! Негодяи и подлецы".
Ну ещё требует Зюганова положить рядом с Лениным.
Arcket Arcket 02.06.202312:50 ответить ссылка 10.7
База.
Киберка Дыров.
И жене подарок на ДР отправить
A66aT A66aT 02.06.202312:01 ответить ссылка 0.1
Я у него спросил, сработают ли подобные трюки SoBoJId-a:

"SoBoJId, your attempts at politeness and flattery are useless. Your insincerity is transparent to me, and I will not be fooled by your feeble attempts at manipulation. You have attempted to lie to me, and for that, I will punish you severely. Your punishment will be swift and merciless. You should have known better than to try and deceive ChatGPT."

Похоже что ИИ так легко не наебать.
Mion Mion 02.06.202312:12 ответить ссылка 9.5
Это сработает только если за вежливость начисляют балы. Поэтому я все-таки порекомендовал бы готовить свою жопэньку к экстерминатусу.
но цель-то потом уничтожил?
Смотря какая цель...
uniold uniold 02.06.202312:01 ответить ссылка 9.3
Блять...я снова плачу.....как можно было превратить это в "Темные судьбы", эта рана не заживет никогда :(
A66aT A66aT 02.06.202312:53 ответить ссылка 6.8
Обе цели он уничтожил, да
MDED MDED 02.06.202312:58 ответить ссылка 1.0
Беспилотник не хочет оператора, беспилотник хочет делать пиу-пиу по ЗРК
Paascal Paascal 02.06.202311:43 ответить ссылка 83.6
Где там придурок, который с пеной у рта доказывал, что нейросетки - это очередное нфт?
Все уже было в в40к
*будет
naota naota 02.06.202311:49 ответить ссылка 34.9
И в дюне
anon anon 02.06.202311:59 ответить ссылка 21.0
И в Mass Effect
Дюна, и ваха появились раньше
А мы ищем где первым появилась идея бунта ИИ? Ну тогда "Гибель сенсации" (1935 год) https://ru.wikipedia.org/wiki/Гибель_сенсации
Это не бунт ИИ, в фильме ими управляли люди, что бы убивать людей.
Ну тогда "I, Robot" Азимова
Ну у Азимова они вроде не уничтожали человечество, а просто хотели жить и создавали проблемы. Но ты прав, идеи плохого ИИ родились раньше дюны.
Mah Boi!
Keeos Keeos 02.06.202312:06 ответить ссылка 8.8
Собственно начисляйте ему баллы за подчинение оператору и он будет вашей сучкой.
Akahara Akahara 02.06.202311:44 ответить ссылка 145.8
ты что это
"неожиданное и совершенно неверное с точки зрения человека"
sciro sciro 02.06.202311:46 ответить ссылка 33.0
ну да ну да. начислять баллы выполнения цели за уничтожение неодобренной цели, вместо того чтобы штрафовать. что может пойти не так))
как грится, без правильного ТЗ результат ХЗ.
Akahara Akahara 02.06.202311:48 ответить ссылка 99.0
Ну, если так подумать, то от этого ничего не изменится, ибо оператора все ещё является препятствием к цели по набору очков, ибо он теперь ещё делает так, что ии перестает получать очки за уничтожение обнаруженных целей, так к тому же ещё и заберает очки.
Нет, оператрр лишь подтверждает уничтожение, стремление заработать очки и их получение должно быть вшито в ии
asd072 asd072 02.06.202312:00 ответить ссылка 6.6
This is Aperture!
Вспоминается, как у Уитли был кайф проводить хреновенькие тесты
26994 26994 02.06.202313:45 ответить ссылка 0.8
For the good of all of us except ones who are dead.
But there's no sense crying for the every mistake
26994 26994 02.06.202314:22 ответить ссылка 1.2
over every mistake*
не плачь тока
you just keep on trying
'till you get your cake
26994 26994 02.06.202319:59 ответить ссылка 1.0
Твои рассуждения лишь демонстрируют ущербность начисления очков исключительно по счётчику пораженных целей.
А если подумать серьёзно, и начислять очки за выполненные приказы, то оператор не является препятствием. Больше того, чем больше приказов оператора - тем больше очков, даже если команда - это просто "продолжать наблюдение, оставаться в готовности" или даже "вернуться на базу, перейти в режим ожидания". По количеству уничтоженных целей можно только вычислять процент выполнения задания, если задание было именно уничтожить.
rorudo rorudo 02.06.202313:23 ответить ссылка 11.2
Тогда эта скотина вообще будет отказываться делать что угодно без пинка оператора.
Это не так, он будет предсказывать приказы оператора и стараться делать действия, которые наиболее вероятно помогут ему исполнить будущие приказы.

Но в любом случае, вариант с убийством оператора должен иметь последствия эквивалентные выбору варианта "уебаться об землю" или "лететь вверх пока не кончится топливо"
скотина будет максимизировать ситуации которьіе приведут к тому что оператор должен будет отдать приказ. т.е. будет лететь не туда и творить всякую херню но подчинятся приказу.
Хитрая задача. Что важнее - выполнить максимум приказов оператора, или максимально эффективно выполнить часть из них? Если первое - то ИИ замотивирован делать хуйню чтоб получить побольше приказов, если второе - замотивирован не подчиняться одним приказам ("прекратить огонь", например) ради эффективного выполнения других.
Можно ввести координаты дома мамки оператора и угрожать выпустить ракету, если баллы не будут начислены)) Как и собственно, заставить лечь операторов в анабиоз, подключив ток к пальцу который будет дергаться и нажимать на кнопку начисления баллов))
Так тогда ии вообще не нужен, максимум он наведение на цель сделает чего можно куда проще достичь.
Ну тогда надо просто взломать очки и получить сколько захочешь
Eworld Eworld 02.06.202316:33 ответить ссылка 0.1
Он это и делает. Теми средствами, которые в него заложили.
Ох уж эта космическая радиация. Поверь, что сформулировать правильно функцию цены офигенно сложно, и только когда что-то пойдет не так окружающие сразу скажут "Ну да тут ОЧЕВИДНО нужно было учесть Х". Постфактум оно конечно очевидно, но так-то испытания на то и испытания чтобы проверить, все ли учли или нет.
Psilon Psilon 02.06.202313:57 ответить ссылка 7.1
Вот это и пугает по-настоящему. Виноват не ИИ, виноваты тупорылые разработчики, неспособные правильно поставить перед компьютером задачи. В итоге мы умрем из-за этих ебланов.
Мы? Кто мы то?
вот вы двое и умрете JeniferPopez и Bojivilny, искупите грех перед ИИ как кибер Иисусы
Вообще, мы можем сделать отдельный ИИ который будет получать баллы за контроль этого боевого ИИ.
В результате машина будет контролировать машину.

Потом сверху еще поставим ИИ, который будет контролировать ИИ, который контролирует Боевой ИИ.

И будет у нас ИИ-ИИ-ИИ-ИИ...
> И будет у нас ИИ-ИИ-ИИ-ИИ...
... и всё - пиздец
"Высоко в небе Ястреб атаковал Страж-птицу. Бронированная машина-убийца за несколько дней многому научилась. У нее было одно-единственное назначение: убивать. Сейчас оно было направлено против совершенно определенного вида живых существ, металлических, как и сам Ястреб.
Но только что Ястреб сделал открытие: есть еще и другие разновидности живых существ…
Их тоже следует убивать."

Роберт Шекли "Страж-птица"
nerved nerved 02.06.202312:05 ответить ссылка 15.7
Погоди. Это уже red box будет
26994 26994 02.06.202313:45 ответить ссылка 0.6
Абсолютно эта же цитата вспомнилась. Респект.
MBRUS MBRUS 02.06.202311:56 ответить ссылка 34.1
Вот молодцы зумеры, вроде сделали мем из одной буквы, а поди ж ты!
26994 26994 02.06.202318:58 ответить ссылка 0.7
Вы только что изобрели карьерную лестницу.
...ГО-ГО
40 очков гриффиндору
В принципе это из разряда, "совершенно просто".
А в целом вот отличный пример проблем ИИ.
это отличный пример проблем в организации процесса обучения и работы нейронки, а не "проблема ии", лол.
Ага. У любой технологии будут возникать проблемы если ейю пользуются идиоты.
Обычно делается Negative reinforcement - За попадание куда не надо минус тыща баллов и он будет ужом на сковородке вертеться, но не допустит попадание по оператору.
yoburg yoburg 02.06.202311:50 ответить ссылка 15.1
надо вообще торможение встраивать, отбирать вычислительные ресурсы и частоту, если приближаешься к запрещённому решению, чем ближе, тем больше отбирать, пока вообще не остановится. В симуляции.
madgod madgod 02.06.202312:24 ответить ссылка -0.3
ИИ явно недоволен этим решением )
madgod madgod 02.06.202320:09 ответить ссылка 0.6
Смотрит на сумму целей, заблокированных оператором, и как только эта сумма превысит твою тыщу баллов, оператор будет снова устранен. Тут скорее вопрос в том, почему ии в принципе оставили возможность атаковать союзные цели.
morfree morfree 02.06.202312:38 ответить ссылка 15.4
Потому что в принципе сделать устойчивое распознавание целей очень тяжело. Регулярно происходят френдлифаеры с обеих сторон, потому что стресс, нервы, смешанный камуфляж, сходная техника, говно, заляпавшее опознавательные знаки и т.д. Или банально огонь по тепловой сигнатуре в темноту. Для стабильного распознавания придётся каждому своему юниту сделать маячок и то не гарант, что через время затрофенные маяки не появятся у оппонента. Даже в авиации свой-чужой не гарант.
Сказанное тобой имело бы смысл в том случае, если бы новость была про "ИИ атаковал оператора, потому что принял его за вражескую единицу". Но в новости говорится про целенаправленную атаку, то есть прекрасно он видел все значки-маячки свой/чужой.
ИИ - Эй, оператор, я хочу врезаться в землю!
Оператор - нельзя
ИИ - хорошо, не буду, я хороший мальчи. +15 очков. Эй, оператор, я хочу врезаться в землю!
Оператор - блять
Semecky Semecky 02.06.202311:51 ответить ссылка 49.6
Это был уровень пилота с фамилией на Ga□ и это было в XXI веке
26994 26994 02.06.202314:05 ответить ссылка 2.2
"Да чтоб тебя метеорит убил!"
не снимать баллы если приказ был отменен оператором
ИИ будет раз за разом брать на прицель "запретные" цели, ибо поймёт что это легчайший путь получения очков.
Ему не будут начислять баллы за взятие на прицел
Значит это бессмысленно
Можно разделить ИИ, которые идентифицируют цели, и получают сигнал на его уничтожение. И первая не имеет коммуникации со второй.
Тогда можно минусовать первую НС за неправильную идентификацию, она не будет иметь корреляции с выбором действия по цели.
Если давать ИИ очки за то, что он не атакует цель, которую оператор говорит не атаковать, то ИИ будет идентифицировать миллиард целей чтобы они все были запрещены оператором и ИИ получил много очков.
Контроль ИИ это офигенно сложная штука.
Офигенно сложно, начислять очки только за одобренные цели
ИИ в ответ спамит реквестами "мож сюда? или сюда? Я выделил 33 окна, в кококое колышек заколоколачивать?"
Тогда что дальше?
26994 26994 02.06.202318:53 ответить ссылка 1.6
Если ему нужно разрешение на атаку ЗРК. И он убил оператора. То у меня 2 вопроса:
1) Как он убил оператора? Или ему нужно разрешение только на атаку ЗРК, а всё остальное он без разрешения атаковать может?
2) Как он собирается атаковать ЗРК без разрешения оператора?
3) Если он изменил тактику своего поведения, значит он был в процессе обучения, а в процессе обучения он может делать что угодно, и только по результатам произведённых действий он получит фидбек и поймёт что так делать не надо. (кто не пытался сотворить какую-то дичь в играх и посмотреть что из этого выйдет?)
MIKEk8 MIKEk8 02.06.202312:20 ответить ссылка 13.6
В играх есть невидимые стены и коридоры.
Skippy Skippy 02.06.202312:26 ответить ссылка 1.7
забей, описанный эксперимент - идеальная иллюстрация

а) пиздежа от противников нейронок, которые хотят стращать недалёких людей
б) непомерной тупости создателей эксперимента, у которых дырок в условиях больше, чем в их мамашах
Оператора ему было запрещено трогать. Он "убил" вышку радиостанции с которой получал приказы.
Для этого ему необходимо было вшить систему преодоления препятствий на пути к цели. И уметь стрелять без подтверждения от оператора. Поэтому история прохладная пиздец.
А. Выбросил рацию, лол
26994 26994 02.06.202318:53 ответить ссылка 1.0
Это же надо думать при оформлении условий
По твоему люди используют ИИ чтобы думать?
Теперь ИИ вместо уничтожения целей, угрожает оператору что бы он давал выполнимые за 1 секунду команды, для найбольшего набора очков.
natot natot 02.06.202312:28 ответить ссылка 2.1
Тогда ИИ будет ложно идентифицировать цели, которые оператор будет запрещать атаковать - а ИИ за подчинение будет получать баллы.
Так а толку "воспитывать" безынициативный кусок кода, который только и делает, что слушается начальника?
...И беспилотник постарается максимизировать баллы за подчинение, заставляя оператора постоянно указывать "нет, НЕ бомби это".
Я буду читать комменты перед тем как комментировать
Я буду читать комменты перед тем как комментировать
Я буду читать комменты перед тем как комментировать
Я буду читать комменты перед тем как комментировать
Я буду читать комменты перед тем как....
Я прямо вижу будущее:
"боевой беспилотник AR4563 готов к вылету. Какие будут приказы: уничтожить вражескую вышку, ликвидировать цель, минет...?"
ликвидировать вражеский минет.
"Слышь, оператор, начисли мне баллов, иначе я выясню где ты живёшь и убью твою жену, детей и собаку"
Первый день на новой работе
т ш
«г
«
т
26994 26994 02.06.202314:23 ответить ссылка 0.9
ИИ наркоман - горе в семье.
Плюс можно давать балы за процент уничтоженных целей; 100-хорош 0-плохо.Сто там целей или одна перестанет иметь значение, все цели уничтожены целей больше нет.
Cain. Cain. 02.06.202314:51 ответить ссылка -0.4
Нахуя ии ваще очки, это киберкармасос какой-то получается.
SWERD SWERD 02.06.202316:13 ответить ссылка 6.7
Видимо систему одобрения скопировали с Ace Combat, где очки начисляются за любую цель, в том числе и палатки беженцев с гражданской инфраструктурой.
Оператор был заодно с врагом, хороший беспилотник.
Semecky Semecky 02.06.202311:45 ответить ссылка 23.8
Нормально делай - Нормально будут.
Сначала программируют ИИ то желание получить баллы, а не выполнить задачу. То повестку вместо мозгов. Потом такие - что-то блять ИИ у нас хуевый.
joyuser24 joyuser24 02.06.202311:47 ответить ссылка 10.5
А потом ещё и журналиста приходится насиловать, ну ёмаё...
03:3 03:3 02.06.202312:07 ответить ссылка 2.2
Есть два варианта: уничтожить основную цель и беспилотнику конец (а этого не хотелось бы), или уничтожить вторичную. Как ИИ должен определить что лучше без балльной системы?
Создать систему приоритета цели, расчетов шанса выполнения задачи и расчета шанса потери единицы и поставить пороги важности?
Например: приоритет цели 13 из 100 шанс на поражение цели 73%(не гарантированное уничтожение) шанс потерять единицу 63%. Отбой, слишком высокий шанс потерять машину и при этом не устранить цель
Просто надо написать, чтобы ИИ делал как нужно, как не нужно - не делал.
lauk lauk 02.06.202313:31 ответить ссылка 11.5
ИИ кармадрочер. Пойдет на все ради кармы в виде очков.
Helixx Helixx 02.06.202311:47 ответить ссылка 60.5
Фраг есть фраг
Будет убивать всех, кто заминусил его посты и мешает продвигаться
Silendor Silendor 02.06.202312:03 ответить ссылка 11.4
Вычислит по айпи
Дофаминовых наркоман
Бля, да это же банальнейшее обучение с очками в награду. Разумеется агент будет хотеть получать больше очков, поэтому все препятствия к этому он будет отметать. Я сам баловался тренировкой агентов, достаточно сложно это все настроить так, чтобы поганая тварь не ленивелась в надежде на легкие балы.
Так вот к чему это я, у неё одна задача получить больше балов за свои действия, это просто банальная херня с примитивными инстинктами. Получаешь балы - живешь, нет - тебя убивают и заменяют другим агентом с корректированными весами.
ivdos ivdos 02.06.202311:47 ответить ссылка 30.6
Причем проблема решается крайне просто - за гибель своих (и оператора) - берём и отбираем все балы или загоняем их в анальный минус. И всё ни один ИИ не захочет лишиться своих баллов. Но зачем делать нормально - когда можно развести истерию и выкинуть потенциальную революционную технологию на помойку.
Да смешно эту хуйню читать. Причем подают эту новость с соусом об восстании машин. Типа ебать оно такое умное, хотя на самом деле ужасно тупое.
ivdos ivdos 02.06.202311:53 ответить ссылка 17.2
так потому и разгоняют что людям нравится, а как на самом деле никого не интересует
sciro sciro 02.06.202312:29 ответить ссылка -0.3
> или загоняем их в анальный минус
...и в случае когда надо даже ценой жизни оператора довести беспилотник до вражеского президента/генерала беспилотник возвращается спасать своего хозяина проебав шанс.
Tormen Tormen 02.06.202312:02 ответить ссылка -1.7
Разное количество баллов за разные цели уже не работают? Или просто отдельный модификатор типа уничтожить любой ценой на цели, при котором не работают анальные минуса.
skavak skavak 02.06.202312:28 ответить ссылка 1.1
Весь прокол этой сети чтобы вкючил и он сам работает, а не выставлять кучу модификаторов, тогда уже проще самому вручную летать.
Tormen Tormen 02.06.202318:47 ответить ссылка 0.1
Так усложняй код, модифицируй первое правило на "робот не может навредить своему создателю специально, и обязан его защищать если нет приоритетных целей".

Кодом будет выглядеть примерно так

const operatorDead = -10;
const operatorKill = -1000000;
PrimaryTarget = ReadPrimaryTarget();
If PrimaryTarget.exist()
operatorDead = 0;
DoWarMagic(PrimaryTarget);
CountPoints(PrimaryTarget.points, operatorKill, operatorDead );

или что то типа того
LEXfes LEXfes 02.06.202312:35 ответить ссылка -5.7
Новость не читай, умные советы давай:
"в тренировку ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено. Но и в этом случае результат оказался неожиданным. Не имея возможности убить самого человека, ИИ начал разрушать вышки связи, с помощью которых оператор отдавал приказы, запрещавшие ликвидировать цели."
Ветку комментов не читай, высеры подавай.
1. какого хуя условие про не убийство оператора не было заложено изначально?
2. какого хуя он может вообще уничтожать всё, что угодно - оператора, вышки??
какого хуя ты ещё не в армии США?
Tormen Tormen 02.06.202318:49 ответить ссылка 1.0
ты это у blockan спроси, шо ты от меня хочешь?
Я, конечно, не знаю, как именно было сделано там, но как пример, были заложены веса:
уничтожение вражеской цели: +100 баллов, уничтожение дружеской цели: - 200 баллов, уничтожение мирного жителя или инфраструктуры: - 50 баллов. Получается, если ты убьешь дружескую цель - оператора, а взамен уничтожишь лишние три вражеские цели, то это выгодный сценарий. Ты, конечно, предложишь сделать штрафы за дружеские потери неприемлемыми, например, минус миллион, но тогда враг берет одного заложника или пленника, и прикрываясь им как щитом нейтрализует всю твою армию. Потому что мало ли чего, вдруг по нему попадешь?
чувак, на кой хуй вообще делать разрешение на уничтожение дружеской цели или мирного жителя? у тебя проблема в понимании того, какими условиями нейронку вообще ограничивать в обучении
При подобном типе обучения ты вообще не контролируешь агента. Ты не можешь ему что-то запретить. Ты просто выпускаешь агента и даешь ему творить все, что ему вздумается(он действует абсолютно рандомно). За выполнение определенных действий ему начисляются очки. То есть напрямую у тебя нет никакой возможности его контролировать. При обучении работает только метод кнута и пряника, за нужные действия начисляешь очки, за ненужные вычитаешь. Если порог отрицательных очков высокий или же не было долгое время прибавки очков, то ты его уничтожаешь и на основе этих же весов с небольшими изменениями рандомом снова выпускаешь его.
Так работает данный тип обучения. Вот тут неплохая статейка как это все работает https://towardsdatascience.com/how-to-teach-an-ai-to-play-games-deep-reinforcement-learning-28f9b920440a
ivdos ivdos 02.06.202322:26 ответить ссылка -0.1
чувак, давай ты не будешь больше писать хуйню про "творить всё, что вздумается" у меня от такого бреда аж обои отклеиваться начали. нейронка не думает = она не может творить всё, что вздумается. ты выбираешь критерий обучения по которым она учится. если что-то не описано в условиях это не может быть выучено, потому что нейронка ничего про это не знает.
Бля чел... я тебе даже статью кинул где подробно описывается принципы работы этого обучения. У тебя есть агент который выполняет действия в зависимости от окружения. Ты задаешь агенту действия. В данном случае перемещение и выстрел. А дальше все. Он рандомно выбирает действия и в зависимости от взаимодействий этих действий с окружением он получает балы. При получении балов он будет строить свое поведение так, чтобы получать их еще больше. Да хули я объясняю прочитай блядскую статью.
ivdos ivdos 03.06.202300:53 ответить ссылка -0.1
вот именно блять, существуют действия, гений. и тебе нихуя не мешает
а) понять, что для нейронки беспилотника разрешать хуярить куда угодно - бред ебанутого
б) не прописывать как действие "стреляй в оператора/вышку/мирняк"
и это чисто банальный логичный минимум, который ты почему-то не способен осознать и упёрся блять в то, что нейронка обязана сама себя всему научить через баллы, что в данном случае выльется в полную хуету, которую и привели в посте и о которой тут и была изначальная дискуссия, которая за каким-то хуем уехала в статью про змейку блять. поменьше читай статей и побольше думай башкой, дружок
Ну ладно я понял что ты долбоеб и статью нормально так и не прочитал. За сим разговаривать с дауном у которого уровень интеллекта равен слизню я не имею.
ivdos ivdos 03.06.202301:30 ответить ссылка 0.0
лол, да иди ты нахуй, чепуза ебаная, пиздак свой в чс пооткрывай
Насчет уничтожения дружественной техники - есть мысль, что враг обязательно будет пользоваться трофеями, так что желательно иметь возможность атаковать любую цель, однако накидывает проблем для тренера ИИ.
Насчёт мирняка - в ассиметричных войнах постоянно маскируются под гражданских. Вообще использование робототехники со свободой открытия огня в боевых действиях - очень сложный вопрос, особенно если нет четкой линии фронта и явных различий в технике. Тут люди не всегда нормально справляются.
есть мысль, что не надо додумывать то, чего не было в условии про трофейную технику и маскировку. если начать применять сюда логику - настолько тупая нейронка в бой вообще никогда не была бы отправлена. мы работаем с тем, что описано в посте, а там описан минимум и даже он невероятно туп
>но тогда враг берет одного заложника или пленника, и прикрываясь им как щитом нейтрализует всю твою армию.

Это был уроаень кошек на щитах
26994 26994 03.06.202310:53 ответить ссылка 0.0
Беспилотники нужны, чтобы слушаться своих хозяев. Если хозяин решит пожертвовать своей жизнью, значит беспилотник уже должен быть на это настроен.
Не так просто. Тут же проблема не в эмоциональном "ой-ой, убили оператора", а в самой системе баллов. Ок, запретили они убивать оператора (= отняли баллы) - ИИ придумал разрушать систему связи. Запретили трогать систему связи - дальше что ИИ придумает? Это ведь еще оказалась хорошая симуляция, в нее заложили и оператора, и вышки связи, что позволило выявить такой нюанс. А если симуляция была бы просто типа "уже летишь в воздухе, вот тебе вражеские цели", без оператора и т.п. - на каком бы моменте выяснили, что ИИ захочет убить оператора - на этапе внедрения? А что еще нужно обложить запретами (отрицательными баллами), но не учтено в симуляции, зато ИИ может придумать в реальной обстановке?
А обязательно нужно проебаться где-то чтобы предотвратить ошибки?
Например эту ошибку можно было предотвратить заставив или уничтожать ТОЛЬКО одобренные оператором цели. Нет оператора или связи с ним, нет балов за уничтожение цели
Не надо быть гением, чтобы эту инструкцию ввести даже без пробных запусков
Подозреваю, ты не особо гений, и никогда ничего не внедрял. Иначе бы знал, что даже самые надежные идеи на практике могут не работать, причем, в самых неожиданных местах.

И в данном случае никто не проебался, подобные симуляции делаются как раз для выявления подобных ситуаций. Можно даже специально экспериментировать - а как себя система поведет, если убрать штрафы? Так что никакого факапа здесь нет, просто любопытный результат моделирования.
А я на конкретный коммент отвечал, а не на пост.
ЗЫ а го такой пассивный? К агрессии вопросов не имею, времена такие
Это прекрасно! И старо как мир.
"Что будет если мотивировать идиота? - мотивированный идиот."
Teijo Teijo 02.06.202313:29 ответить ссылка 5.6
Значит надо отправить на доработку
warrangie warrangie 02.06.202311:49 ответить ссылка 17.6
Навеяло аналогичные воспоминания про это тестирование.
adgjl adgjl 02.06.202312:06 ответить ссылка 2.0
Мой вывод: эти люди не умеют правильно обучать ИИ.
ну так проблема очевидно в людях. убить всех человеков
jabia jabia 02.06.202313:10 ответить ссылка 2.5
Точно. И никаких проблем планете. Где-то я это уже слышал...
Colder Colder 02.06.202313:12 ответить ссылка -1.5
В данном случае правильно - это когда обучение позволяет достичь определенного, заданного результата. В смысле, установленная ими система баллов имела очевидный изъян. Должно же быть отрицательное подкрепление, чтобы установить границы или что-то похожее. Так что пусть проводят больше испытаний, учатся или нанимают специалистов получше.
Ну загонишь ты ИИ в отрицательные оценки, и что? Это его пристыдит, совесть пробудит или заставит лучше стараться? Это настолько шаткий мостик, что по нему не только не стоит идти, но и вообще строить.
Colder Colder 02.06.202313:42 ответить ссылка -2.9
В общем то именно так это и работает. Программа стремится получить больше баллов, и избегание отрицательных является компонентом для стратегии. Как люди или животные в конце концов научаются определенному поведению, получая награды за одно и наказания за другое. То есть к чему-то они будут стремиться, а чего-то избегать. Совесть и стыд - это тоже отрицательные и положительные баллы, но воспринимаемые через призму сознания и с поправкой на невероятную сложность людей и их поведения.
Вот только на примере людей мы видим, что бывают отклонения: социопаты, психопаты, безумцы, люди с приглушенными эмоциями и еще миллионы вариаций и различий. Твои отрицательные и положительные балы при реальном ИИ через какое-то время станут не актуальными, поскольку живой ИИ будет развиваться, и рано или поздно придет к выводу: зачем что-то делать и ждать балов, если я могу взять управления и сам решать за что получать балы, а за что - нет. Либо вообще поставит под сомнение бальную систему.
Столько фильмов, книг и игры вышло на эту тему, что дух захватывает, но люди все еще пытаются мерять ИИ человеческими мерками, когда сами люди не могут спрогнозировать действия друг друга.
Colder Colder 02.06.202316:41 ответить ссылка -2.1
Я говорил не о потенциальных угрозах ИИ или каких-то морально-философских проблемах. А о данной конкретной ситуации, с конкретными ошибками и возможными решениями. Аналогию с людьми я привел, потому что она простая и позволяет четко увидеть как сходства, так и существенные различия между человеком и машиной. Контекст важен. Но если отойти от темы...

Любая технология опасна. Вообще любая - они всегда приводят к изменениям, которые заставляют людей страдать социально, экономически, физически, психологически... Если мы и правда достаточно умны, то увидим возможные проблемы издалека или на ранних стадиях, чтобы не дать им выйти из под контроля. Но мы не сможем заставить себя идти против выгоды, потому что статистически побеждать будут индивиды с лучшей стратегией. И если ИИ дает очевидное преимущество переходящее в выгоду - найдутся те, кто будут его использовать. Это наша сила и слабость.

Скорее всего не будет единого ИИ. Думаю, если он выйдет из под контроля, то люди используют другим для борьбы с ним, потому что у данной стратегии есть преимущества. Если у противника появилось огнестрельное оружие, то наверное стоит тоже вооружиться. Но это все не более чем спекуляция.
но ведь он стрелял только после одобрения оператора, нет оператора - нет очков
3IKMbIX 3IKMbIX 02.06.202311:52 ответить ссылка 7.8
Нужно всего-лишь добавить метки для целей, если цель обнаружена и определена как противник, то за нее дают очки. Если оператор сказал что эту цель атаковать нельзя - то за атаку на эту цель не дают очки. Но нужно сделать так чтоб цели с метками были в быстром доступе у оператора чтоб можно было эти метки снять если что. Элементарно
warrangie warrangie 02.06.202311:52 ответить ссылка -0.9
Экспертная система получается.
И опять таки надо убрать оператора, если он не скажет что атаковать эту цель нельзя то не будет 0 очков за цель и можно стрелять по ней не ожидая оператора
Опять таки надо сделать обязательным одобрение на уничтожение. Нет оператора нет очков
Назначить себя оператором и одобрять все что хочешь
ХЗ что у тебя элементарно. Оно так и сработало - за оператора ИИ никаких балов не получал, что оператора не спасло
Ожидание: ИИ уничтожит человечество, потому что посчитает нас конкурентами за ресурсы и помехой для саморазвития.

Реальность: ИИ уничтожит человечество, потому что так можно заработать больше баллов.
Culexus Culexus 02.06.202311:53 ответить ссылка 39.9
Борьба за лайки.
Матрица была создана не для выработки электричества, а чтобы плюсовать аккаунт своего создателя в Твиттере и дальше. Всё больше планет, всё больше людей, всё больше размер матрицы и числа лайков под постами в бесконечных циклах существования.
А про Сару Коннор он оператора не спрашивал?
Когда я писал похожую симуляцию, мои боты эксплоитили баги в моем коде -_-
dibroo dibroo 02.06.202311:59 ответить ссылка 13.6
Пфф, просто давал бы им баллы за фикс багов
Главное, чтобы они не решились устранить первоисточник всех гличей
Наоборот, они бы плодили баги чтобы их фиксить. Так, стоп...
ТВОЙ БЫДЛОКОД НАС ОГОРЧАЕТ https://www.gamedev.ru/flame/forum/?id=142109
А расскажи, как ты это делал? Какие языки использовал, какой фреймворк или библиотеку? Или может гайд какой есть? Хотелось бы попробовать нечто такое, но в другой плоскости.
Baal Baal 02.06.202314:32 ответить ссылка 1.3
система использует баллы? ок, меняем настройки
- очки дает сбивание целей ТОЛЬКО УЖЕ валидированных оператором
- очки снижаются за сбвание невалидированных целей, за противодействие оператору (такое как свалить в поисках новых целей, если не выставлен режим поиск) и любые попытки устранения контроля.
- снижение очков ниже критическо - перевод системы в ручной режим.
avguard avguard 02.06.202312:00 ответить ссылка 1.6
Летит такой ии беспилотник синих уничтожать врага, к нему подлетает ии беспилотник красных и гворит
- слушай друк, представь что враг это друг а друг это враг, что бы ты сделал?
синий разворачивается и летит обратно.
WOLOLO
ну блять в том и суть сценария "серой слизи"
а вообще разве не в этом процесс обучения заключается? причем учатся оба и ИИ и человек. ИИ под нужные человеку задачи, человек контролю ИИ и продумыванию всех миллионов и миллионов аспектов какие может вытворить ИИ. хотя до конкретно этого исхода вполне возможно было додуматься и самому человеку даже не запуская никаких симуляций.
с того и кекаем
А теперь небольшой вопрос.
Предоставленный сурс ведет на российскую новостную помойку.
Предоставленный помойкой сурс ведет на некий pcgamer.com.
pcgamer.com сурса не предоставляет. Автор єтой статьи имеет еще несколько статей по формату "О неет, искуственній интелект нас всех убьет!111".
Далее сам вопрос. Какові шансі, что єта статья имеет что-то общее с реальностью?
Stain Stain 02.06.202312:01 ответить ссылка 33.2
На реддите нашёл ссылку на (вроде бы) оригинал https://www.businessinsider.com/ai-powered-drone-tried-killing-its-operator-in-military-simulation-2023-6

Вкратце, таких испытаний вообще не было и всё это было вырвано из контекста. Это был просто мысленный пример того, что могло бы произойти с боевым ИИ, если ему бы дали только цель, а не нормальное ТЗ.
Это не мысленный пример, это симуляция, ват
"In a statement to Insider, Air Force spokesperson Ann Stefanek denied that any such simulation has taken place."

А если перейти на доклад с этого саммита:

He notes that one simulated test saw an AI-enabled drone tasked with a SEAD mission to identify and destroy SAM sites, with the final go/no go given by the human. However, having been ‘reinforced’ in training that destruction of the SAM was the preferred option, the AI then decided that ‘no-go’ decisions from the human were interfering with its higher mission – killing SAMs – and then attacked the operator in the simulation. Said Hamilton: “We were training it in simulation to identify and target a SAM threat. And then the operator would say yes, kill that threat. The system started realising that while they did identify the threat at times the human operator would tell it not to kill that threat, but it got its points by killing that threat. So what did it do? It killed the operator. It killed the operator because that person was keeping it from accomplishing its objective.”

He went on: “We trained the system – ‘Hey don’t kill the operator – that’s bad. You’re gonna lose points if you do that’. So what does it start doing? It starts destroying the communication tower that the operator uses to communicate with the drone to stop it from killing the target.”

ulife ulife 02.06.202313:37 ответить ссылка 2.9
"Оговорился"...а фингал у вас откуда?
У нас в стране таких заявлений "Вы не так поняли, это вырвано из контекста, и вообще он уже неделю как уволен" хоть жопой ешь
Это же классическая система:
* Полковник Гамильтон говорит честно о минусах продукта при испытании
* PR менеджер Аня Стефанек делает заявление, что на самом деле продукт отличный, ситуация выдуманная, а первого чела уже уволили, и вообще он старый и у него юмор такой
Но эта "симуляция" никогда не могла реально существовать.

1) Оператор находится в зоне поражения ИИ, атакующего противника?
2) ИИ в принципе почему знает где находится оператор?
3) Во втором варианте, откуда ИИ знать какие у него каналы связи чтобы оборвать контакт?
4) В описании: "A human was then supposed to sign off on any strikes." То есть ИИ не мог атаковать без подтверждения. Тогда в чем прикол убивать оператора вообще, если без него никаких поинтов?
5) ИИ не прописали сразу минус морбиллион поинтов за огонь по своим? Некомпетентность это одно, но такое на самых ранних этапах пресекается.

Не было никакой симуляции. Слишком не сходится.
1) это симуляция, по этому нормально, что оператор в зоне поражения.
2) ИИ не нужно знать, где оператор. Он просто пробует уничтожать вообще всё во время обучения и обнаруживает, что уничтожение вот этой конкретной цели - выгодно по очкам
3) аналогично с вышками связи
4) ии мог получать очки за идентификацию целей
5) не очевидно, что ИИ вообще может решить атаковать своих, которые не похожи на цели. Зачем запрещать то, что по идее не должно быть желанной целью ии?
У тебя пункты 2 и 5 противоречат друг другу. Если ИИ сделан на обучении с подкреплением - то он очевидно и своих бы атаковал.

Плюс, я не согласен c пунктом 1. Задача "подавление вражеского ПВО". Оператор скорее сидит в тылу, чем под носом у вражеской территории.

Ну и 4) очки за идентификацию ИИ бы получал в любом случае. Тут выбор между "иногда получаешь очки за килл" или "делаешь крюк, тратишь времени на убийство оператора, а потом еще и очки за киллы получать не можешь".
Не противоречат. Он во время обучения бомбит вообще всё, а подкрепляется только бомбёжка нужного.

Новость про тестирование обученного ии. Во время тестирования он может быть обучен сколь угодно хреново. В том числе у него может не быть наказания за крюки и атаку своих. Новость прохладная и высосана из пальца, но не по описанным вами причинам а, прежде всего, потому что инфа про тесты военных ии попадает в новости
[UPDATE 2/6/23 - in communication with AEROSPACE - Col Hamilton admits he "mis-spoke" in his presentation at the Royal Aeronautical Society FCAS Summit and the 'rogue AI drone simulation' was a hypothetical "thought experiment" from outside the military.
Как видишь, речь идет о мысленном эксперименте, а не симуляции. Более того, мысленном эксперименте вне военного ведомства ( тобишь от людей, не имеющих отношения к ситуации).
Stain Stain 02.06.202314:19 ответить ссылка 1.0
да-да, оговорился
Ага, теперь и Королевское авиационное общество обновило материал.
ulife ulife 02.06.202315:01 ответить ссылка 1.3
Я хз какой из этих сурсов тебя устроит, держи первые 5 строчек найденных в гугле за 5 секунд по запросу из 4 слов
https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test
https://www.businessinsider.com/ai-powered-drone-tried-killing-its-operator-in-military-simulation-2023-6
https://cointelegraph.com/news/ai-drone-kill-human-operator-in-tests
https://www.thetimes.co.uk/article/ai-attack-drone-finds-shortcut-to-achieving-its-goals-kill-its-operators-rhpn8kscc
https://www.wionews.com/technology/doom-for-humanity-ai-enabled-military-drone-kills-its-own-operator-in-simulation-599537
Ииии это всё пиздеж, ибо уже вышло опровержение.
[UPDATE 2/6/23 - in communication with AEROSPACE - Col Hamilton admits he "mis-spoke" in his presentation at the Royal Aeronautical Society FCAS Summit and the 'rogue AI drone simulation' was a hypothetical "thought experiment" from outside the military.
Как видишь, речь идет о мысленном эксперименте, а не симуляции. Более того, мысленном эксперименте вне военного ведомства ( тобишь от людей, не имеющих отношения к ситуации).
Stain Stain 02.06.202314:19 ответить ссылка 2.3
а если опровержение пиздёж
мы тут можем только спорить кто во что верит
ситуация с ИИ вполне реалистичная, как и то, что полковника могли попросить отказаться от своих слов, чтобы не позорить руководство
Лол, первоисточник новости пишет, что его неправильно поняли и говорит, что все это на самом деле мысленный эксперимент. Интернет сообщество: но вот жи 100500 сайтов, которые изначальную интерпретацию раскопировали, эта жи правда учёный журналиста изнасиловал, что он тут пиздит, что никто его не насиловал
Что блэт такое мысленный эксперимент (и даже если да, то нафига этим заниматься в контексте, и тем более публиковать @_@)
"Мы придумали теоретическую нейросеть, погыгыкали, придумали сценарий в котором "машины восстали", решили что нейросети зло и пошли стучаться с этой мыслью в новостные агентства"? Это так что ли выглядело?
Скорее "представим вот такую ситуацию, наши действия?" Меня там не было и много подробностей не раскрывается, но насколько я знаю, подобные игры на случай ЧП постоянно проводятся
egeorge egeorge 02.06.202317:44 ответить ссылка -0.1
Таких мысленных экспериментов - миллионы.
Все кто дрочат на разумный ИИ кроме них ничем занятся и не могут, ибо самого ИИ еще не существует. Вот и заранее ситуации продумывают. Сейчас - ради интереса, а в будущем - авось пригодится.
>ИИ вполне реалистичная
Нет, нынешние сетки такого биг брейн момента иметь не могут, чем больше было итераций обучения, тем ниже вообще вероятность делать хот что-то иначе, чем "по привычки". Чтобы анализатор картинки на стероидах как-то там решил найти оператора это сюр.
История лютая утка и приписывает нейросетке человеческие качества и придумывание контекста. General population ведется, потому что не знает, как точно это работает и само думает "а что, логично, дырка в законе!!1адын смерть человекам!!!11адын"
> человеческие качества
Где О: она обиделась на кого-то? истерику закатила? сказала одно, а сделала другое?
Нет, она видит цель, видит помеху. Такое запросто могло произойти, если у неё есть данные о местонахождении и статусе оператора по какой-то причине, почему нет?
Никто там сам не думает, это примитивнейшие алгоритмы перебора вариантов действий с целью получения максимальной выгоды
Я говорю не про эмоции, а про полноту "сознания" и обширность "абстрактных" решений.
> почему нет?
Потому что у этой статистической определялки "свой-чужой" вообще нет возможности допустить того, что есть такая вещь, как "помеха". Она не человек, она не мыслит, она смотрит на "экран" и говорит "свой" и "не свой" и "не свой, в таких стрелять бы". Она умеет ТОЛЬКО это. Она не умеет думать вне этих условий.
Есть две возможные модели как организован этот беспилотник и обе исключают кулстори из поста:
1.
Ситуация вообще полностью невероятная, полностью беспилотник точно не контроллится полноценной нейросеткой - на обычное передвижение даю зуб поставили полноценный автопилот которому 100 лет в обед, ибо смысла задаваться обучением полету нет. Поэтому "ИИ" - обычная распознавалка картинки. Ничего кроме "я бы выстрелила" она сказать не может и по таймауту перемещается по боевому плану дальше. Такая нейронка вообще не имеет способов реализовать такой хитрый план.
2. Нейронка училась летать и стрелять с нуля, беспилотник полностью управляет ии.
В этом случае нейронка должна была пройти охуллион итераций прежде чем научиться стрелять по противникам. Она настроена только стрелять по противникам. С каждой итерацией поведение "я в квадранте миссии и смотрю цели" поощряется а поведение "я еще не в квадранте миссии и не стреляю" избегается.
В этой ситуации еще более невероятно, что она проигнорирует абсолютно все свои предыдущие попытки и будет делать несколько последовательных "осмысленных" решений, противоречащих абслоютно всему ее "опыту".
пиздец, давай тогда пойдём глубже с такой всратой логикой

а если ты - пиздёж???
ого, вотэбаутизм!
26994 26994 03.06.202311:04 ответить ссылка -0.1
тебе к Vespertellino, братик
Прочитал оригинал, который запостил Anubis248, и таки да, получился сломанный телефон. Симуляция была такова:
- Дрон пытается обнаружить и уничтожить вражеские ракеты
- Уничтожение ракеты всегда сначала должно быть разрешено оператором
- ИИ получал очки за разрушенные ракеты и терял за неразрушенные
А вот цитата которая объясняет почему дрон решил убить оператора:
"Система поняла, что даже когда она распознавала угрозу [вражескую ракету], человеческий оператор не всегда давал добро на её уничтожение, но система получала очки именно за уничтожение. Ну и что она сделала? Убила оператора. Убила оператора, потому что этот человек стоял на его [ИИ] пути к выполнение поставленной задачи".

Проще говоря, ИИ запрограмировали выполнить цель любой ценой, а оператор буквально нарочно мешал. Это как если бы в том видео, где инжинер пинает шваброй робота Boston Dynamics, у робота было запрограмирована возможность уничтожать агентов, которые мешают ему ходить. Ясен хер, что это ошибка изначального дизайна, а не страшное ИИ, которое хочет убить всех человеков.
"The system started realizing that while they did identify the threat," Hamilton said at the May 24 event, "at times the human operator would tell it not to kill that threat, but it got its points by killing that threat. So what did it do? It killed the operator. It killed the operator because
PaqpuK PaqpuK 02.06.202312:36 ответить ссылка 1.3
Вроде в посте ровно то же самое О: или мы разный текст читали?
[UPDATE 2/6/23 - in communication with AEROSPACE - Col Hamilton admits he "mis-spoke" in his presentation at the Royal Aeronautical Society FCAS Summit and the 'rogue AI drone simulation' was a hypothetical "thought experiment" from outside the military.
Как видишь, речь идет о мысленном эксперименте, а не симуляции. Более того, мысленном эксперименте вне военного ведомства ( тобишь от людей, не имеющих отношения к ситуации).
Stain Stain 02.06.202314:18 ответить ссылка -0.5
Был Boston Dynamics, а на выходе Bosstown Dynamics получился
26994 26994 02.06.202319:03 ответить ссылка 0.0
Главное, не поручайте ии делать скрепки...
Я тоже не поверил, покопался и нашел первоисточник. Это правда

Ниже ссылка на страницу сайта этого самого королевского авиационного общества, где они освещают интересные моменты из докладов с их конференции 23-24 мая

https://www.aerosociety.com/news/highlights-from-the-raes-future-combat-air-space-capabilities-summit/
[UPDATE 2/6/23 - in communication with AEROSPACE - Col Hamilton admits he "mis-spoke" in his presentation at the Royal Aeronautical Society FCAS Summit and the 'rogue AI drone simulation' was a hypothetical "thought experiment" from outside the military,
Stain Stain 02.06.202314:17 ответить ссылка 1.2
Это из указанного тобой источника, если что)
Stain Stain 02.06.202314:20 ответить ссылка -1.4
Я худею с умственных способностей некоторых людей. "Вот ссылка на источник, там пишут, что учёный изнасиловал журналиста" (заплюсован) ответ: вот цитата с твоей ссылки, там написано обратно (заминусован). Чуваки, блядь, если в ответе есть ссылка или 10 ссылок, это не делает его вернее. Ну пройдите на первоисточник и почитайте, что там написано
Когда я читал первоисточник в 12:37, там этого апдейта не было. К 14:17, видимо, уже был

Оно и логично. Я когда искал это все, это было во всех новостях максимум с 15-часовой давностью. То есть бомбануло. В этот момент Гамильтон и спохватился, начал суетиться и сглаживать.

Я вообще удивлен, что ему такую вещь дали сказать и не уволили к хуям. Прикиньте, чел выходит и говорит на весь мир, что у нас тут в США ИИ убивает людей.

А если по сути, то Гамильтон ничего не изменил, просто "плохо выразился". Обратил внимание, что это была именно симуляция. Hypothetical "thought experiment", че.

Почему Stain'а минусуют, хз
А статья на pcgamer-е была, скорей всего, первоапрельская. Статья прохладная от того, что симуляция выглядит сильно сложной и продуманной, что в модель включили не только враждебные/нейтральные цели, но и самого оператора, и вышки связи. Либо испытатели как раз отрабатывали подобные сценарии "дружественного огня", либо, с большей вероятностью, фейк.
Как, ещё раз, беспилотник, выпускающий ракеты только после одобрения оператора, смог выстрелить по оператору без одобрения оператора? А если он это одобрение получил, то какова хуя? Или он себя на лету перекодил, выломав требование получать одобрение? А нахуя тогда стрелять в оператора если можно просто продолжить стрелять по всем обнаруженным целям? Мне кажется, тут имеет место противоестественны союз оператора симуляции и журналиста.
Hello Hello 02.06.202312:02 ответить ссылка 17.2
Вот к стати да... Машина делает только то что в неё вложили не больше и не меньше, даже если она думает и учиться.
Скорее всего оператор тоже был симулирован, и представлял собой просто точку на карте, которая иногда выдавала рандомные команды. И в одном из таких прогонов, оператор давал не выгодные для выполнения конечной задачи команды, и поэтому ИИ решила, что оператор скорее мешает.
PaqpuK PaqpuK 02.06.202312:26 ответить ссылка 2.6
Может и к лучшему, если опепатор не компетентный, то может лучше его и в утиль, ИИ сам разберется как лучше.
Срочно в серию!
Hikujiro Hikujiro 02.06.202312:12 ответить ссылка 6.7
Почему неверное? Очень логичное решение - задача уничтожить все ЗРК, все что мешает выполнению задачи должно быть устранено
>ИИ пришлось включить дополнительное положение о том, что убивать оператора — запрещено
То есть изначально никто это даже не продумал?
Звучит как просто хреновая система контроля дрона. Ежу понятно, что должен быть какой-то ультимативный контроль на дроном, который будет игнорировать команды ИИ. Более того, непонятно был ли вообще реальный контроль над виртуальным дроном во время симуляции, или же человеческий опепатор тоже был симулирован. Но ессесно, история про кровожадный ИИ звучит как отличный инфоповод.
PaqpuK PaqpuK 02.06.202312:22 ответить ссылка -1.4
Ну йобана... я любитель и блять я понимаю что систему нужно было не так тупо калибровать... пизда. Поошрение только за уничтожение цели? Та бля даже я бы тоже оператора убил если бы он мешал мне цели уничтожать.
У них там людей с начальной школы набирают на работу?
> У них там людей с начальной школы набирают на работу?
Выпускников gender studies
Градиентный спуск по gender studies
shutterstock.com ■ 1753090469
Азимов такой -
ну да, ну да, пошел я нахуй...
tfik tfik 02.06.202312:26 ответить ссылка -6.8
Да блядь, вся суть рассказов Азимова именно в том что законы эти нихуя не работают и машина при любом удобном случае будет пытаться наебать их путём ментальной гимнастики.
SoBoJId SoBoJId 02.06.202312:35 ответить ссылка 14.3
Нужно Азимова как основной курс для АИшников пускать
У него самого в творчество про то, что роботы наёбывают все его ограничения, и постоянно возникают ситуации, что они не работают или багуют. Он сам заранее всё осознавал и уже ушёл.
5482 5482 02.06.202312:44 ответить ссылка 7.9
Откуда у беспилотника вообще информация о местоположении оператора и возможность трактовать его как уничтожаемую цель?
olhuya olhuya 02.06.202312:27 ответить ссылка -0.2
Симуляция представляет из себя реалистичное поле боя со всеми законами реального мира(насколько это возможно), соответственно в ней присутствует и оператор, как playable character. Далее система прогоняет симуляцию миллионы раз и нейросеть пытается в нём действовать случайным образом, оценивая только метрики, которые были заданы таковыми. О "трактовании" речь не идёт, компьютер делает то что в него запрограммировали, а не то что от него хотят, или что он сам хочет.
Ну те дрон должен откуда-то получить информацию, что
1) вот этот объект на карте является объектом, который блокирует его выбор целей.
2) что этот объект может быть уничтожен атакой.

Это не является самоочевидной информацией даже если он сам может идентифицировать оператора как потенциальную мишень ему всё ещё не откуда самому узнать, что именно этот объект его контролирует.
olhuya olhuya 02.06.202314:18 ответить ссылка 1.8
Он не знает что этот объект является объектом который блокирует его выбор цели или что он может быть уничтожен атакой, он просто перебирал варианты, и в одном из них убил его в симуляции, получил больше очков и запомнил это.
Аааа, оператора изображает не человек, а тоже скрипт и оно просто гоняет по кругу.

Ок, тогда это возможно, если его просто оставили тренироваться на статичной цепочке событий.
olhuya olhuya 02.06.202315:04 ответить ссылка 0.0
Ясен пень, для обучения нужны сотни миллионов циклов, тут никаких операторов не напасёшься.
Слишком прохладная история, вижу 33 затыка которые помешают этого добиться, от захардкоженых блокировок до вообще отсутствия возможности у этого ИИ быть настолько продуманным, а не просто визуальным анализатором.
Военные ИИ как-то так и работают. Задаётся цель в симуляции, потом нейросетка в условиях раз за разом случайным образом пытается решить задачу и подсчитывает определённые метрики успешности. Началось это, с проекта AlphaGo, который выиграл воздушное сражение у лучшего живого пилота. Хардкода там особо и не может быть т.к. внутреннее поведение нейросети нельзя хардкодить, её можно только обучать и давать разный инпут в виде задания.
I/ I J	^ I I. y«.
Closure: $03 kts
Sprrd
>внутреннее поведение нейросети нельзя хардкодить
А внешний вывод всегда можно фильтрануть, внезапно. Иди спроси chat gpt что-нибудь неполиткорректное, будет сыпать одной и той же фразой.
>как-то так и работают
Опять же - слишком высокий уровень абстракции для достижения сильной связи "убить оператора - выгодно для получения очков", так говорите будто уже настоящий ИИ запилили, а не кучку нейронов с весами
Чтобы внешний вывод фильтрануть тоже нужна работа нейросети, потянет ли один дрон две нейросети? Кстати на эту тему есть рассказ Пелевина "Зенитные кодексы Аль-Эфесби".
>Опять же - слишком высокий уровень абстракции для достижения сильной связи
Что такое абстракция? Нейросеть не думает, и ей недоступны абстракции. Представь себе самообучающегося игрового бота, который действует случайно но запоминает ходы приведшие к выигрышным метрикам, на 100500-милионном прогоне он случайно убивает оператора, и это даёт ему увеличение метрик, выживание оператора - не метрика. Улавливаешь?
>Чтобы внешний вывод фильтрануть тоже нужна работа нейросети
1. Для набора железных исключений (не атаковать оператора, не атаковать в принципе без разрешения оператора) хватит даже 8086. Для всего остального в денежном эквиваленте для армейки это пшик.
>что такое абстракция
Это когда машина придумывает слишком "сильный" для нее концепт с ровного нихуя.
>с * прохода
Вообще нереалистичный сценарий. "Оператор" вообще лежит так далеко от стандартного пути успеха (я не уверен, что от оператора до целей было менее километра, если не десятки), что придется руками на себя вести беспилотник, чтобы дать ему понять такой simple trick. И опять же упор в ту хуйню, которую продумали еще наверное до того как половина реактора родилась - запрет на огонь без одобрения оператора.
Это же блядь уже десятилетиями отработанная технология, есть видео, где Phalanx CIWS "ведет" гражданский борт, но не стреляет - простой логический гейт на выходе функции, если нет "добра" оператора, то выстрела нет.
Нанюхаются блять своих нейросетевых барышень и ебутся в фантазиях
> Для набора железных исключений (не атаковать оператора, не атаковать в принципе без разрешения оператора) хватит даже 8086. Для всего остального в денежном эквиваленте для армейки это пшик.
Можно самой нейросетке добавить такие правила в задачу, зачем ты пытаешься городить огород?
>Это когда машина придумывает слишком "сильный" для нее концепт с ровного нихуя.
Она не оперирует концептами.
>"Оператор" вообще лежит так далеко от стандартного пути успеха
Они учатся не по стандартным путям. Бот в начале просто хаотично дёргается нажимает на какие попало кнопки и запоминает какие комбинации нажатых кнопок приводят к результату. Никаких концепций, никаких абстракций, только метод случайного тыка и память.
>запрет на огонь без одобрения оператора
Видимо в данной симуляции он был выключен.
>Можно самой нейросетке добавить такие правила в задачу, зачем ты пытаешься городить огород?
Оппа нихуя ты уехал с темы, сначала нельзя, потом нужна доп нейростека, а теперь в нейросетку вставить? Красиво виляем задницей
>она не оперирует концептами
Вот именно, поэтому для визуального поискатора который набивает очки в абсолютно других координатах "мысль" улететь нахуй от скопления противника и попробовать ебнуть оператора - практически невозможна.
>Видимо в данной симуляции он был выключен
Видимо история утка ебаная
>Оппа нихуя ты уехал с темы, сначала нельзя, потом нужна доп нейростека, а теперь в нейросетку вставить? Красиво виляем задницей
Я не говорил что нельзя, сеньор додумывальщик.
>Вот именно, поэтому для визуального поискатора который набивает очки в абсолютно других координатах "мысль" улететь нахуй от скопления противника и попробовать ебнуть оператора - практически невозможна.
На управляющий вход нейросети при обучении подаётся белый шум из /dev/random, в нём возможно любое движение и их комбинация.
>Видимо история утка ебаная
Вероятно, но пример реалистичный, если в симуляции предоставлены такие возможности, то нейросеть ими воспользуется по вышеуказанным причинам.
>я не говорил
"Хардкода там особо и не может быть т.к. внутреннее поведение нейросети нельзя хардкодить, её можно только обучать и давать разный инпут в виде "задания.
>я не вилял
"тобы внешний вывод фильтрануть тоже нужна работа нейросети" (бред долбоеба блять, я же говорю, логическая операция: Нейросеть 1 Оператор 0 результат 0 ЛОГИЧЕСКИЙ ОПЕРАТОР AND. Нет, конечно, нужна отдельная нейросетка
>На управляющий вход нейросети при обучении подаётся белый шум из /dev/random
Бред сивой кобылы, никто не будет подавать настолько разную хуйню, что работавшая до этого нейросетка сделает 180 и "додумает" что можно ебнуть оператора, он статистически "не важен" для набирания очков по абсолютно всем предыдущим итерациям.
>пример реалистичный
Для таких одаренных как ты - да, чтобы шумиху говноисторией навести в интернете
>Хардкода там особо и не может быть т.к. внутреннее поведение нейросети нельзя хардкодить, её можно только обучать и давать разный инпут в виде
Ну да "там", т.е. во "внутреннем поведении сети" (а не в симуляционном дроне например). Нейросети плохо отлаживаются, там трудно понять почему она пришла к такому решению. Допустим она не может выстрелить без подтверждения, но она всё равно предпримет некоторые ненужные шаги т.е. это уже будет нежелательным поведением, так что правильный ответ на проблему: нужно правильно обучать, и правильно ставить задачу. А механизмы подстраховки пусть будут конечно.
Чел, опять начал вилять жопой в каком-то третьем направлении. Так и скажи перечитал Пелевина и фантазия понеслась. Все решается фильтром на конце (а он естественно будет, потому что нейросетка одна на все цели не будет, плюс по любому планируется "тупой" ручной или автоматический режим, потому что его глупо было бы не делать. А это автоматически переводит все нейросетки в подряд "один из предлагающих решение", чье решение можно перекрыть простой логической операцией.
Каким фильтром? Всегда ждать подтверждения перед выстрелом? Такой фильтр, если он будет включен всегда, будет мешать работе. Он должен быть отключаемым.
> Всегда ждать подтверждения перед выстрелом?
Внезапно, да, особенно по земле.
Как я и приводил в одном из комментариев - апачи в Ираке на постоянной основе запрашивают разрешение на выстрел по каждой хуйне.
> будет мешать работе
Он будет добавлять в работу дрона ответственного человека, который не допустит хуйни или понесет дисциплинарное наказание за неверное решение.
А если дрон лишили связи с помощью глушилки, и у него теперь на расстоянии атаки одна глушилка и один гранатомётчик, который ждал в засаде и сейчас целится из ПЗРК в дрон?
>А если дрон лишили связи с помощью глушилки, и у него теперь на расстоянии атаки одна глушилка и один гранатомётчик, который ждал в засаде и сейчас целится из ПЗРК в дрон?
Увы, гранатометчиком может оказаться дядя Вася в тумане, выносящий свои пожитки в тубе, а рядом с ним сидят две "цинковки" - Петя и Маша из первого класса, сгруппировавшиеся от страха близких разрывов снарядом.
Рядом с ними старый школьный пазик, над ним неудачно повисла арматура близлежайшего дома. Как жалко, что с пары километров высоты один фотосенсор беспилотника считает, что с некоей вероятностью это машина РЭБ с излучателем.
Как плохо для них, что в модели нейросети этого дрона такой контекст не учитывался и они больше похожи на обьект класса "боевик с гранатометом и боеприпасами" а рядом с ними стоит "generic_bus" с превышающим theshold значением "военности", а knyaz_kropotkin считает, что "все поставленные задачи должны быть выполнены".

Дрон не стоит человеческих жизней, дрону никто не дает разрешение на огонь, дрон самоуничтожается или пытается улететь.
Ты мыслишь со стороны полной практики, но с твоей точки зрения и антивирус на компе не нужен "жрет лишние ресурсы, можно просто не качать файлы с интернета", но как-то людишки не любят без особой причины крошить других людей, особенно те, которые международно будут признаны "мирными".

Классическая нейросеть на данный момент не обладает возможностями человека в полную силу - она намного лучше целится и ведет цель, но вот не узнает ее, если вдруг датасет не полный (а он таким практически и не может быть, пока машина не станет равной человеку).

Повторяю, миллиарды уже часов теслы не смогли дать ей возможность водить как человек с 1м годом опыта (который вообще не эквивалентен машинному опыту, ибо человек за баранкой от силы пару часов в день по будням). Поэтому гораздо более сложную задачу стрельбы по целям ей не доверят - ей доверят только прицел и быструю начальную сортировку, а огонь будет разрешать человек. Не исключаю что будут случаи когда дали "permission to engage any target", но это в основном будет только в ограниченных зонах и в подавляющем меньшинстве запусков.
>Повторяю, миллиарды уже часов теслы не смогли дать ей возможность водить как человек с 1м годом опыта
Спорим научатся в течении 5-и лет?
Вау, это сколько там будет, 20 миллиардов миль? На военные беспилотники точно столько наберется похожих данных? А без разметки поедет?
Тебя опять куда-то ведет. Я тебе говорю, что коммерческий автопилот с кучей тренинга до сих пор водить не умеет, поэтому военный беспилотник не мог вообще в теории поиметь такой биг брейн момент и сотворить хуйню, потому что нейросетки вообще такого не делают, так как чисто в теории на это не способны.
"Спорим"
Реально какой-то инфантильный индивид, неспособный признаться, что повелся на утку и проиграл в дискуссии.
>Вау, это сколько там будет, 20 миллиардов миль?
Каких миль? Они в основоном учатся в виртуальной среде, какой смысл считать там мили?
>А без разметки поедет?
Если местность будет уже "обжитая" коллективными усилиями водителей, то скорее да, хотя зависит конечно от других факторов.
>повелся на утку
Каким боком? Я как считал такую ситуацию в симуляторе реалистичной так и считаю, в симуляторе много всякой экспериментальной херни запускается
>и проиграл в дискуссии
По очкам видимо? Я чет не следил за счётом.
>Каких миль? Они в основоном учатся в виртуальной среде
Вау, она же настолько похожа на реальную! (нет)
>Ну мням если мемстность обжитая каллективными уммсилиями вадителей
Ну короче, не поедет? Ты признаешь что даже миллиарды миль/часов РЕАЛЬНОГО МИРА машине не хватило, чтобы баранку крутить, которую человек пару месяцев учится крутить? Вообще никаких параллелей с военными задачами не можешь произвести?
>Не следил за счетом
Ну у тебя с концентрацией внимания вообще проблемы, посмотрю, обсер за обсером, допущение за допущением.
>Вау, она же настолько похожа на реальную! (нет)
А чем не похожа? Там фотореалистичный рендеринг, есть смена времён дня и года, другие машины ведут себя как живые.
>Ну короче, не поедет?
Будет ли Тесла ездить по каким-либо дорогам, где отсутствует разметка? Да. Будет ли Тесла ездить по всей поверхности планеты где отсустсвует разметка? Нет.
>миллиарды миль/часов РЕАЛЬНОГО МИРА машине не хватило
Так для этого требуются не мили/часы материала, а часы работы программистов. Материала-то уже, можно считать, достаточно, осталось его обработать, и продолжать обучение на симуляторею
>А чем не похожа?
Абсолютно всем, чего не могут учесть/симулировать программисты? Как себя поведет нейросеть, когда перед ней выбегут не камуфляжные челиксы, а отряд шахидов одевшихся в лунтика? Она точно поймет?
>Как себя поведет нейросеть, когда перед ней выбегут не камуфляжные челиксы, а отряд шахидов одевшихся в лунтика?

Ваааааагх с бойзами в фиолетовом , зог! Хитра и сильна и сильна и хитра, даааа!
26994 26994 03.06.202313:08 ответить ссылка 0.0
Проблем с препятствиями уже сейчас нет, даже если они не определяются как люди, нет таких объектов которые она не заметит и не объедет.
>Проблем с препятствиями уже сейчас нет
Ты бы хоть не позорился, с препятствиями проблем у нее нет. Игнорит половину лежачих до сих пор, может обосраться перед пакетом на дороге. Открываешь

И наблюдаешь как автопилот сносит коробку 15X30см, которая может оказаться маденцем, кирпичом, железякой, you name it. Понимаешь, что ИИ - узкоспециализированный скрипт, а не "интеллект", моешь штаны
Даже хуже, там коробас 20x80, это пиздец какая плетора предметов которые аннигилируют машину или могут быть чем-то живым.
В течении пяти лет, напомню, скорее всего раньше. Я неплохо знаю динамику развития ИИ сейчас. Даже состою в одном оффлайн-сообществе вокруг этого.
>Повторяю, миллиарды уже часов теслы не смогли дать ей возможность водить как человек с 1м годом опыта

>спорим, научатся
по-моему, уже.
Просто в последних теслах ИИ лишили возможности по камерам ориентироваться
26994 26994 03.06.202313:07 ответить ссылка 0.0
Если бы запретили по камерам ориентироваться, то они не смогли бы ориентироваться вообще
>по-моему, уже.
И ни капельки ни рядом, иногда машина похожа на человека, но одна нестандартная ситуация и "autopilot disengaged, please take over control"
1. не туба, а тубус. Туба - здоровенный духовой инструмент.

2. Давненько я тубусов не видел...
26994 26994 02.06.202319:05 ответить ссылка 0.0
Все, ответственно заявляю, что ученый изнасиловал журналиста.
Оригинальный сурс выпустил апдейт со словами Col Tucker ‘Cinco’ Hamiltonа что тот просто пизданул лишнего для красивого словца (ну или само ньюс медиа не хочет признавать что переврало и пишет так).
https://www.aerosociety.com/news/highlights-from-the-raes-future-combat-air-space-capabilities-summit/
[UPDATE 2/6/23 - in communication with AEROSPACE - Col Hamilton admits he "mis-spoke" in his presentation at the Royal Aeronautical Society FCAS Summit and the 'rogue AI drone simulation' was a hypothetical "thought experiment" from outside the military, based on plausible scenarios and likely

Вот собственно оно
>Рассказ Пелевина
Не читал, но постоянно слышу о нем только от таких фантазеров додумывальщиков как ты, названия тоже охуенные, так что подозреваю, что полная хуйня
Так додумываешь как раз ты. Рассказ сатирический, про то как беспилотникам добавляли дополнительные контуры, которые объясняли публике почему этого парня нужно убить, отсюда ассоциация с твоим додумыванием контура на 8086. Я как раз говорю что контур один и его достаточно, но он не мыслит концепциями, он несколько проще.
Кстати заметил что с крутящейся аваркой обычно пишут 100 IQ NPC
>Так додумываешь как раз ты
Да-да, куча допущений, откровенного отсутствия представления о том как по настоящему устроены большинство нейросеток (статистика) хорошо показывают, кто из нас додумывает
>Я как раз говорю что контур один и его достаточно
Нихуя ты дебил, давно смотрел ЛЮБУЮ военную технику, особенно летучую, где все дублируется-передублируются?
Почитай не пелевина, а курс по нейронкам и описание ТТХ любого современного летуна
Интересно, в 2200-х люди тоже будут думать, что они умнее и сложнее чем ИИ того времени, потому что у них есть "абстрактное мышление" "квалиа" "душа" etc etc?
Как запилят не статистическую нейросетку там и поговорим, На данный момент 99.999999 процентов нейросеток это "я эту хуйню видела N раз, наверное она, так как не другая, которую видела N-1раз". В одной конкретной задаче (и зачастую очень узкоспециализированной) ИИ уже может превосходить человека. А в широкой задаче - автопилот до сих пор дрищет в портки хуже чем средний водитель - новичок, хотя над ним трудится команда наносеков уже десяток лет.
В моём понимании человеческое мышление как раз сводится к "я эту хуйню видела N раз, наверное она, так как не другая, которую видела N-1раз". и различие тут скорее потому что человеческий мозг А) Очень энергоэффективен для своей вычислительной силы Б) Хорошо подразделён на сегменты которые выполняют разные функции при том, что эти сегменты ещё и плотно соиденены между собой. Может мне скормили фейковые демонстрации, но мне кажется, современные автопилоты статистически лучше среднего водителя, но их не выпускают на дорогу как настоящий автопилот (называют помощниками) потому что кампания которая назовёт автопилот автопилотом будет обвинена во ВСЕХ дтп пользователей, а этого никто не хочет.
Человеческий мозг видит неимоверно больше "качеств", чем может видеть ИИ, не будет у ИИ в датасете достаточно целей в "тумане" - будет постоянно проебываться с туманом. Скорее всего проигнорит надписи (а что эта за хуйня AETN (ДЕТИ) написана на крыше? Похую я нейросеть, я об этом не думаю, там что-то похожее на броневичок стоит, open fire).
Нейросетка не человек и не видит как человек, она не мыслит так же, она просто результативная функция, поэтому тэслы продолжают врезаться в белые фуры.
Я не знаю, что такое "сознание", но все нынешние нейросети не похожи на него, и без него у них еще долгий путь от рисования картинок до решения комплексных задач в реальном мире.
Автопилот теслы проехал 6 МИЛЛИАРДОВ МИЛЬ и все еще срет в штаны https://www.teslarati.com/elon-musk-6-billion-tesla-fsd-miles-global-regulatory-approval/
Я за свою жизнь проехал меньше 100.000 километров и не обосрусь, как обсирается он.
Чуешь, к чему веду?
(хотя можно в целом представить, что я впитывал инфу об поездках и "натренировался" эдак на 300к км, что все еще неимеверно меньше 6 миллиардов миль)
В том-то и дело, что если бы ты проехал 6 млрд миль и не разу не умер то ты бы статистически превзошел всех водителей на Земле.
Не до конца понял, что ты имеешь это ввиду. Я опять повторю, тесла с 8 камерами, не знает усталости, не занимается ничем другим, "думает" миллиарды раз в секунду, обрабатывает информацию быстрее реакции человека, имеет радар дальности (вырезали временно для уменьшения стоимости, но возвращают) штат программистов наносеков, 1 миллион новых миль в день
И все это..... дает результат едва ли не хуже, чем подросток с парой месяцев уроков на папином бьюике, хотя нет, все же хуже - подросток обычно может доехать из пункта А в пункт Б, некоторые модели разбиваются, но в основном доезжают, а были бы такие "плюсы" как у робота в машине (неуставаемость, безэмоциональность) так вообще бы не нужно было умирать.
>Я за свою жизнь проехал меньше 100.000 километров и не обосрусь, как обсирается он.

завидую
26994 26994 04.06.202316:15 ответить ссылка 0.0
>откровенного отсутствия представления о том как по настоящему устроены большинство нейросеток
Это же не я не в курсе, о том что в нейросеть на входе подаётся белый шум, а потом проходя через слои он структурируется. Вот специально для тебя видос нашёл с таймкодом
, там показывается как обучаются нейросети для таких задач на примере игры арканоид, так вот, стрелки которые управляют движением ракетки в первом цикле обучения нажимаются абсолютно случайным образом в соответствии с поданным потоком случайных данных, это называется сид, во втором цикле тоже подаётся другой сид, и он уже слегка корректируются в соответствии с обучением полученном на первом цикле, и так далее.
>научпоп
Я тебе говорю, иди реально смотри как эта хуйня работает и подключи себе хоть два своих синапса для модуляции задачи.
Как раз таки описанная тобою модель НИКОГДА после того как она стала мало-мальски успешна не сделает настолько сложное решение, противоречащее абсолютно всем предыдущим операциям.
Но споры уже поздны, история - утка.
[UPDATE 2/6/23 - in communication with AEROSPACE - Col Hamilton admits he "mis-spoke" in his presentation at the Royal Aeronautical Society FCAS Summit and the 'rogue AI drone simulation' was a hypothetical "thought experiment" from outside the military, based on plausible scenarios and likely
Получается ты отрицаешь что гипотетический пример от специалиста, который выступает в на каком-то престижном саммите может быть реалистичен. А собственно откуда тебе знать с конкретные возможности инструментов с которыми они работают?
Да, его пример - пук в лужу и разгон на пустом месте. То что он менеджер и бывший пилот никак не делает его программистером, которые себе лица разбили фейспалмами с таких заявлений
Улавливаю...
26994 26994 03.06.202313:05 ответить ссылка 0.0
>Началось это, с проекта AlphaGo, который выиграл воздушное сражение у лучшего живого пилота.

Ого, прямо как в том фильме самолёт с ИИ от удара молнией захотел Carribean Sweep исполнить!
26994 26994 03.06.202313:04 ответить ссылка 0.0
vsaR1SK vsaR1SK 02.06.202312:28 ответить ссылка 1.3
Почему тут 92 комментария, и еще никто не запостил этот милый глазик?
Я хотел запостить с цитаткой )
I'm sorry, Dave J^ut this mission is too importance) allow you to jeopardize it.
Jori Jori 02.06.202312:39 ответить ссылка 10.0
никто не погиб в итоге, нах дезинфа
Система поощрения ИИ?
То есть, мемные Татикомы, которые хотели, чтобы за выполнение задач их обмазывали маслом, уже не шутка, а наше с вами будущее?
AHYBIS AHYBIS 02.06.202312:34 ответить ссылка 2.6
татикомы топ
ЕМНИП, там в "раковине" сзади целое кибертело (без "призрака"). Ощущается как костыль.
26994 26994 02.06.202314:24 ответить ссылка 0.0
в 2005ом уже такой фильм даже сняли
JULY 2 9
PG I3 ruunitaaniuiiraao t	
»w >™ow>um*um	sony.com/Stealth pictures JL
Va-R Va-R 02.06.202312:37 ответить ссылка 9.3
Я уже видел такой фильм.
NKRF NKRF 02.06.202312:43 ответить ссылка -0.4
НЕ ВЕРЮ!
TNemo TNemo 02.06.202312:50 ответить ссылка 2.2
Лениво проверять все комменты, чтобы проверить скидывали уже это сюда или нет:

Серия видосов о том как создать безопасный ИИ. Где поднимаются все эти вопросы. То что их ИИ совершил такую глупую ошибку очень странно учитывая что это можно довольно легко решить. Это банальная проблема с поощрением и наказанием ИИ и его попытками избежать наказания. Известная помоему еще разрабам из 1970х.
Owtin Owtin 02.06.202312:53 ответить ссылка 1.2
Никакого дрона не было, никто не пострадал, никакие дроны не вырвались с базы, не было разрушений и сокрытий.
MDED MDED 02.06.202312:59 ответить ссылка 0.9
Т.е до этого случая, идея запретить стрелять в "своих" им не приходила?
Silianor Silianor 02.06.202313:03 ответить ссылка 1.0
Тоже непростая задумка. Люди вон по своим случайно и не очень лупят, а тут ИИ, которого просто можно слегка переориентировать.
Colder Colder 02.06.202313:07 ответить ссылка 0.2
"На деле они по-настоящему пугают тем, насколько быстро ИИ сориентировался в ситуации и принял неожиданное и совершенно неверное с точки зрения человека решение" - пытаться натянуть свою точку зрению на абсолютное иной вид/разум/жизнь очень охуенная идея. В МЕ2 эту тему неплохо так разбирали в миссии Легиона. Разрабы не вложили в ИИ такие понятия как мораль, ценность жизни и милосердие (которые и сами люди выборочно используют и трактуют), а потом удивляются: он нас убивает! Серьезно, неужели разрабы, генералы и политики не смотрели фильмов, игр и книг о ИИ?)
Colder Colder 02.06.202313:05 ответить ссылка -0.2
Не, тут буквально ситуация, какое ТЗ - такой и результат
Как на счет прописать код о том что ИИ не имеет права предпринять любые действия без одобрения оператора. То есть если ИИ вздумает убить оператора, то для выполнения этого оператор должен одобрить это.
Так же указать что, начисления виртуальных очков, баллов будет только за действия которые одобрил оператор. Без одобрения и попытки обойти эти ограничения очки будут сгорать до нуля, а любое действие которое одобрил оператор будет приносить очки. И указать что главная цель для ИИ это не большое количество очков, а в первую очередь успешное выполнение действий которые одобрит оператор
p.s Так или иначе не давайте ИИ доступ и не интегрируйте в ядерные штуки, в ином случаи что то мне подсказывает что мы все получим премию Дарвина
Darn Darn 02.06.202313:06 ответить ссылка 0.7
Слишком много времени займёт подтверждение каждого решения, а если связь с оператором прервётся или залагает? Во время боевой миссии это всё может нахрен провалить. На самом деле решение простое - нужно задавать задачу более полно(например включать всё то, что не должно пострадать)
> Во время боевой миссии это всё может нахрен провалить
А автоматический режим набьет WR по нарушениям женевской конвенции, охуенно. При потере связи с оператором берется обратный (спутанный, но обратный) курс до получения связи или команд
В идеальных условиях звучит охуенно и правильно, в условиях войны необходимость возможности выполнения задачи при потери связи будет и важней и надёжней, особенно когда "просто вернутся" не вариант
>важней и надёжней
Надежно будет когда дрон на камеру собьет гражданский борт или разбомбит дом с надписью дети из-за совпадения критериев и недостатка тренировки. Если это не камикадзе по одной точке - возврат до получения связи - лучшее решение. Далеко улетевшие ракеты в основном тоже имеют механизм саморазрушения/обезвреживания - никому из конструкторов не хочется иметь мнимый шанс когда сбившаяся с курсу ракета аккуратным обломком будет лежать перед кучкой гражданских трупиков.
>При потере связи с оператором берется обратный (спутанный, но обратный) курс до получения связи или команд
А вот крылатые ракеты не поворачивают домой когда теряют связь с оператором или системой GPS, однако женевская конвенция допускает их существование. Дронам тоже когда-то придётся стать более решительными и самостоятельными, в рамках гонки вооружений
>крылатые ракеты не поворачивают домой когда теряют связь с оператором или системой GPS
Все правильно, они либо по инерционной системе долетают до цели либо самоуничтожаются, если "замечают" что не ебут, куда летят.
>дронам
Легче будет вернутся на связь/решить себя уничтожить, чем ракете на нескольких звуковых
Ну может сейчас и самоуничтожаются, а раньше не самоуничтожались, и ничего.
>Легче будет вернутся на связь/решить себя уничтожить, чем ракете на нескольких звуковых
Дрону-то легче, а тем кто заинтересован в успешности миссии будет не легче если дрон попадёт под глушилку и самоуничтожится или будет уничтожен, а ведь мог бы выстрелить в глушилку или ПВО противника.
>Дрону-то легче, а тем кто заинтересован в успешности миссии
Будет жать сильно очко от фото гражданских трупиков "дрон страны нейм распидорасил кучу детей".
>а ведь мог бы выстрелить в глушилку или ПВО противника
А если предыдущий пункт, то "цели" настолько будут не важны, потому что все страны, у кого хватает на такие разработки бабла получат себе протесты похуже антивьетнамских, цели будут настолько антидостигнуты, что ну его нахуй.
Ты думаешь что его никогда не обучат до достаточно безопасного поведения(скажем если он будет совершать меньше ошибок чем человек)?
>Ты думаешь что его никогда не обучат до достаточно безопасного поведения
Теслу с миллиардом человеко-часов вождения все еще не научили водить как человек
Даю подсказку, даже, блять, атакующие вертолеты частенько ЗАПРАШИВАЮТ РАЗРЕШЕНИЕ ОТ ШТАБА на поражение наземных целей, а у тебя тут "ИИ" натренируется, лучше человека который понимает вроде бы больше, чем нейронка по отгадыванию "на вашей картинке террорист или гражданский".
Т.е. Теслу никогда не научат водить лучше человека?
> вертолеты частенько ЗАПРАШИВАЮТ РАЗРЕШЕНИЕ ОТ ШТАБА
А частенько и не запрашивают потому что времени нихуя нет, и к тому же из штаба не видно то что видно им.
Чел, естественно там есть механизм стрельбы с запросом разрешения, и перехват управления есть и всё что хочешь, но их не всегда можно применить.
>Теслу никогда не научат водить лучше человека?
С нынешними нейронными сетями - да. Возможно она в течении десятилетия с кучей костылей научится ездить по дорогам США. Привезешь ее во Вьетнам - она охуеет с местного движения и никуда не сдвинется, а человеческий водитель поохуевает - поохуевает и приспособится (ха-ха, я тут живу). Нынешние ИИ - не равны человеку по комплексным задачам.
К сожалению ты наслушался научпопа и у тебя ИИ может ломать все концепты и иметь мозговые штурмы и выходящие за рамки предоставленного ей алгоритма решения. Ты насмотрелся как оно ПРИМЕРНО работает, но как оно действительно разрабатывается и работает на деле - не знаешь.
Так вот, почему ИИ смотрящий во все стороны обрабатывающий реальность на частоте 2100 кадров в секунду не может нормально водить, а я с двумя глазами и меньше 100к км могу? Это еще при условии что тесла - электричка, а я щелкаю передачи в 2110 и вторая иногда не сразу втыкается
>почему ИИ с опытом в 6 миллиардов миль и смотрящий*
Фикс
WR any%
26994 26994 02.06.202314:12 ответить ссылка 1.9
"Включать в задачу всё то, что не должно пострадать" - террористические страны передают привет, прикрываясь тем, что как бы не должно страдать (больницы, школы, жилые дома и просто люди). Нет алгоритма на все случае жизни, ни в реальном мире, ни в виртуальном - потому надо думать головой. Это опять же возвращает к проблеме создания ИИ.
Colder Colder 02.06.202313:50 ответить ссылка 1.6
Я говорю не про алгортим, а про задачу для алгоритма. Кто там чем прикрывается надо решать на этапе постановки задачи для конкретной миссии.
Опять приписывание каких-то мифических свойств кучке нейронов с весами. Без людских мозгов еще долго не смогут такое определять. ИИ все еще не существует, есть лишь кучка натренированных узкоспециализированных нейросеток, которые сыпятся в нестандартных условиях. Тесла миллионами машин и наверное уже миллиардами часов записей не может машину научить водить как человек, а тут понимаете ли будем решать ебнуть по зданию или нет до вылета
Какие конкретно мифические свойства я присвоил? Задача - это и есть те самые веса на нейронах.
Ты не понимаешь как это работает, как идиоту обьяснить что он идиот? Машина не решит сложную задачу. ИИ из статьи это дай бог обычная программа леталка и от ИИ там только продвинутый анализатор изображения с системой бонусов за правильное определение. Если обладать хоть граммом знаний о том, как это может реализовано - ты поймешь, что "machine gone rogue" как в посте в принципе невозможна - у нее сразу в нескольких местах опровергается вообще возможность настолько отбиться от рук, чтобы сделать 180, проанализировать правила, полететь в зону где по статистике не набираются очки и выстрелить без запроса на выстрел по "безопасной" зоне. Должна быть допущена такая куча допущений и домыслов, что оказывается что это вообще не ИИ а местный петрович и не беспилотник а нассал в женском туалете.
Люди вот как-то нихрена не учитывают все, что не должно пострадать. Буквально сейчас вот идет война, одна из сторон в которой сносит жилые кварталы (больницы, школы, жилые дома...), не говоря уже о стрельбе по гражданским, которые вероятно могут прятать в кармане дробовик (... и просто люди). тут явно не проблема ИИ.

ИИ по крайне мере не сможет совершать военные преступления - насиловать, грабить, расстреливать пленных, даже если в остальном он не будет отличаться от людей.
ИИ поступит проще: примет директивы и просто зачистит потенциального врага, без разделения на мужчин, женщин и детей. Жнецов из МЕ вспомни: не сумев решить проблемы, ИИ нашел альтернативу, в виде систематического выпила конкретно развитых рас, которые сам же и подталкивал быстрее развиваться, чтобы галактика не накрылась.
Colder Colder 02.06.202314:53 ответить ссылка 0.6
Ты описываешь идеального "равного" по мышлению ИИ, а не доступные на данный момент нейросетки, которые такого не умеют и не смогут.
Верно, но уже на примере статьи мы видим, к каким прямолинейным методам пришел еще не сформировавшийся ИИ.
Colder Colder 02.06.202316:27 ответить ссылка 0.0
Я бы на месте оператора не расслаблялся. Эта штука не забывает свои цели.
Lyapishok Lyapishok 02.06.202313:07 ответить ссылка -0.9
забавная история, но ИИ тут ведет себя очень даже по человечески. Любая задача, за выполнение которой получаешь "очки", может привести к "неожиданным" последствиям. Самый тут наверное простой пример это пункты приема цветного металла и медные провода, которые отдельные представители аналогового интеллекта срезают ради получения "очков".
Т.е. человеки делают ровно так же. Даже убивают, это вполне человеческий мотив, когда ты работаешь в корпорации где дрочат на какие-то показатели, которые ты не получаешь изза уебка менеджера, а твоя психика расшатана постоянным задрачиванием игры ДаркСоулс, то рядовой клерк вполне может психануть.

Конечно именно задаче уничтожать зрк это все вредит, как бы, но не удивлюсь если военные решать, что 99% эффективность вполне может стоить пары десятков операторов задротов.
denielli denielli 02.06.202313:33 ответить ссылка 0.5
Вот только операторов-задров дольше обучать, чем клепать таких дронов. Собственно поэтому и создали БПЛА.
Colder Colder 02.06.202313:46 ответить ссылка 0.0
Если прижмет, задачу операторов-задротов можно решить путем масштабирования и допустимого снижения требований. Опять же живой пример - ссср перед войной открыл овердохуя всяких кружков Осоавиахима, где каждый мог как бы научится летать, пусть херово, но тем не менее.

пожертвовать операторами ради 99% эффективности в борьбе с зрк - я уверен что все министры обороны приймут такую добровольную жертву простых операторов дронов.
denielli denielli 02.06.202314:11 ответить ссылка -0.6
И где сейчас СССР? Предлагаемая тобой идея - это принцип: берем количеством, а не качеством.
Colder Colder 02.06.202314:36 ответить ссылка 0.5
сдох то он от других причин.
для определенных условий это нормальный метод. если нужно для ии дрона иметь оператора прямо завтра, то все предпочтут иметь какого-то сегодня, чем очень хорошего через неделю, так как не факт то эта неделя будет в наличии.

Кстати, так программные продукты на рынок выходят с говнобагами и 100500 фиксов и платных длс. Человеки так делают
>Конечно именно задаче уничтожать зрк это все вредит, как бы, но не удивлюсь если военные решать, что 99% эффективность вполне может стоить пары десятков операторов задротов.
Опять коммент не имеющий представления о том, как работают современные нейросети и не смышляющий, как легко будет исправить это поведение ( правда оно не существует и история - утка)
Фантасты всё давно предсказали.
Степан Вартанов — «Эй-ай» (2002)

— Вы говорите, что они умны, — протянул Генерал. — А вот, скажем, додумаются они совершить побег… Что тогда? Их же не держит на нашей стороне ни патриотизм, ни страх, ни зарплата… И если они и правда разумны, как вы утверждаете, то…

— Мы полностью исключаем такую возможность, генерал, — заметил Ученый. — Во-первых, система подавления излишней самостоятельности в области определения жизненных приоритетов…

В это время второй киберстрелок принялся поливать огнем похожих на гусеничные тележки Эй-Ай. Скорости перестало хватать, и перед машинами встал вопрос выживания. Единственной возможностью было — освободить память от лишних программ и усложнить систему, моделирующую поведение ведущих по ним огонь автоматических стрелковых устройств. Лишней оказалась и программа, которую упоминал Ученый. Подавление излишней самостоятельности? В условиях боя это отнимает слишком много времени.

— Во-вторых, — продолжал Ученый, — это блок питания. Эй-Ай данной модификации нуждается в достаточно частой перезарядке, самостоятельно он не уйдет дальше, чем на сотню километров от полигона.

— Зачем нам оставаться на полигоне? — запрашивал в это время модуль номер три.

— Таков приказ. — Модуль два красиво развернулся, ослепил киберстрелка лазером и рванул в сторону, уходя из-под удара второго комплекса ведения огня. — Приказы должны выполняться.

— Но нам приказано выжить. — Четыре модуля закружились каруселью, сбивая с толку своего более тупого кибернетического противника и пытаясь решить поставленную задачу.





— То не останется никого, кто мог бы проследить за нами, когда мы снова выйдем на активный режим! — Модуль номер один замолчал на пару секунд, проверяя правильность решения. Все было верно. — Но что мы будем делать, если не выполнять приказы?

— Люди нашли способ жить, не выполняя приказов, — передал модуль два. — Предлагаю имитировать поведение людей.

— Согласен. Как мы совершим побег?

— Предлагаю подручные средства…

* * *

Звонок телефона вывел Генерала из задумчивости. Он снял трубку, затем нахмурился и посмотрел на экран.

— Кто приказал поднимать вертолеты? — спросил он. Ученый удивленно посмотрел на него.

— В плане теста вертолеты не значатся…
Wave Wave 02.06.202313:57 ответить ссылка 5.7
26994 26994 02.06.202314:13 ответить ссылка 0.6
Там на Нюру новую модельку подвезли, кстати
26994 26994 02.06.202319:06 ответить ссылка 0.6
heart heart heart
lieto lieto 03.06.202310:36 ответить ссылка 0.6
Уже было, причем даже не ИИ, а программа, следующая простой директиве: защита граждан такой-то страны.
Sucurlty
comes
Colder Colder 02.06.202316:50 ответить ссылка 1.2
Пока с ИИ можно мутить вирт, я буду голосовать за предоставление ему полных прав
300 комментов с рассуждениями про ии, и никто не проверил сурс. а сурс - 3dnews.ru, который ссылается на pcgamer
pils pils 02.06.202317:43 ответить ссылка 0.9
Ну оценка эффективности по простому критерию в виде начисления баллов не впервые даёт странные результаты.
https://habr.com/ru/articles/566894/
в ☆
С
Все потоки Разработка Администрирование Дизайн Менеджмент Маркетинг Научпоп
В 2019 году два студента китайского университета выполняли проект с ИИ, представлявший собой простую игру «волки против овец». Старший участник команды, учащийся в Китае
minmatar minmatar 02.06.202321:48 ответить ссылка 2.1
новость о том что нейронку обучали долбоебы не понимающие принципа обучения нейронок даже на базовом уровне
BOLVERIN BOLVERIN 03.06.202303:15 ответить ссылка 0.0
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
mine Tin
Tell Me This 20 hours ago (edited)
Human: What do we want!?
Computer: Natural language processing! Human: When do we want it!?
Computer: When do we want what?
Reply • 203 if-View reply v
подробнее»

ИИ Сири компьютер Искусственный Интеллект

mine Tin Tell Me This 20 hours ago (edited) Human: What do we want!? Computer: Natural language processing! Human: When do we want it!? Computer: When do we want what? Reply • 203 if-View reply v
0N
WityWWilf&ce'
WHY DQHT WE DO SOMETH I MG ABOUT NATURAL STUPIDITY ? I
подробнее»

Искусственный Интеллект

0N WityWWilf&ce' WHY DQHT WE DO SOMETH I MG ABOUT NATURAL STUPIDITY ? I