ИИ, созданный для игры в прятки, научился прятать тех, кто ищет, вместо того, чтобы прятаться самому / Искусственный Интеллект :: гиф анимация (гифки - ПРИКОЛЬНЫЕ gif анимашки)
Нууу... Тут как посмотреть. То, что он сделал, на прятки не похоже, то есть с задачей он не справился. Суть плохо "объяснили", или ИИ ее не понял. К тому же, я не знаю правил, по которым он играл, но, как мне кажется, при таком толкании двух из трех человечков должны были найти. Так что и успешность получилась максимум 1/3 при условии, что третего синего человечка не заметили.
Вытяжка из 2й статьи:
"The program even learns how to take advantage of bugs and glitches, like timing jumps so that Mario begins falling again at the exact time that he makes contact with a Goomba. Mario's invincible when he's falling, so the touch kills the Goomba, not Mario, and it gives him a further jump boost."
1) Энергоэффективность: На 2400ккал в день ИИ сможет максимум крутить вентилятор который охлаждает его проц.
2) Координация: Люди пока ещё значительно лучше ИИ в плане способностей распознавать форму предметов и прикладывать к ней свои грязные лапы.
3) Генерализм: ИИ теряется выходя за область своей экспертизы. Люди имеют наборы шаблонов на практически все случаи жизни.
Просто если ты такую хуйню со своими друзьями ребятами со двора, с тобой играть больше никто не будет, а еще придеть Олег (без макета, батя Лёхи) и на правах яжбати даст пизды.Такую хуйню нормально не примут даже быдложеребята когда заводила сделает это с самым лоховатым во дворе. Нее, тут нужны зэкодети. Кароч, это пиздец.
Не все так просто.
В данном примере использовался т.н. "Reinforcement Learning" (обучение с подкреплением). Это один из видов обучения без учителя, где агент взаимодействует со средой, а среда возвращает ему значением некой функции стоимости, определяющей, насколько хорошо агент справляется со своей задачей. Агент должен максимизировать функцию стоимости.
Фактически, агент выбирает рандомные действия, получает вознаграждения, выбирает чуть менее рандомные действия и так далее.
Reinforcement Learning - перспективное и весьма хайповое направление машинного обучения, но, к сожалению, имеют овер9000 недостатков.
1. Эта хуйня неустойчива. Какие-то небольшие изменения, и все идет по пизде, решение не сходится, застревает в локальном минимуме или вообще происходит треш.
2. Эта хуйня КРАЙНЕ СИЛЬНО зависит от качества задания функции стоимости. Если неправильно задать функцию, то система может научится в багоюзерство. Например, вы моделируете шагающего робота и задали функцию стоимости как пройденное расстояние. В итоге сеть научится падать и кольвунсивно дергаться, чтобы ползти (реальный случай).
3. Эта хуйня требует огромны вычислительных затрат. В данном случае обучение длилось "миллионы раз" (habr).
Напоминает прохладную историю про собеседование, когда конкурсантов рассадили за разные компьютеры с задачей отключить конкурентов. И вот один из конкурсантов просто встал и начала остальным провода вырывать.
Не обязательно же убивать. Я тоже абсолютно всех оглушал (чтобы потом спокойно бегать и искать тайники) и складировал где нибудь на крыше или на балконе подальше от крыс.
В первой части вместо рассинхрона тупо отнимали немного здоровья (по сути тоже рассинхронизация, ведь шкала зовётся синхронизацией)
Однако на картинке не тот случай - все это дохлые стражники, их не запрещено мочить.
Собственно, в литературе так часто поступает дьявол. Выполняет желание, но не совсем так, как ты на это рассчитывал. Что не может не наводить на мысли.
Кстати, смотрел когда-то фильм. Вроде бы по мотивам Уэллса. И там было что-то про деда который исполнял желания. Один лысый мужчина пожелал чтобы у него выросли волосы, и они начали просто расти постоянно, он превратился в чубакку. А второй, учитель вроде бы, пожелал избавиться от лишнего веса и потерял его вообще - ходил с грузиками чтобы не улететь.
Правда центровой сюжет был вокруг университета, пропавшего ученого и как потом оказалось какого-то ускоряющего(или замедляющего, как посмотреть) эликсира.
ниже видосы есть игры и там показано, что в начале дается время построить себе укрытие и по этому красные стоят и ни чего не делают (скажем так "зажмурились и считают, пока ты спрячешься").
Тот который ищет научился ещё и залезать на объекты, чтобы увеличить обзор. А те кто прячется научились под определенным углом проваливаться в текстуры) а вот и статейка: https://m.habr.com/ru/news/t/468045/
Надо только решить проблемы со временем и полностью содрать с игры графон. А, ну и да, после надо, чтобы ИИ отреагировал на баг. Потому что если игра не вылетает, ИИ продолжит упражняться дальше.
Сука, я с вас хуею! Ты, блять, что-ли дохуя понимаешь? Ну раз так, то объясни с хуяли в игре где надо прятаться и искать прописана физика объектов, которая в игре не нужна, ДАЖЕ АНИМАЦИЯ ТОЛКАНИЯ ОБЪЕКТА! При этом те кто должны прятаться, наоборот бегут к тем кто ищет, да ещё и с нихуёвой скоростью, а те кто ищют вообще не реагируют. Вас наебали, а вы и рады.
Угу, а то, что в прятках есть так-то время, чтобы спрятаться, ты, конечно, проигноришь.
Ну и так-то это ты несёшь херню. Программист, особенно разработавший ИИ, не может сказать, что этот ИИ в итоге сделает. Во всяком случае, когда мы говорим про самообучающийся ИИ.
Ну, тут я согласен — стоило прописать касание моделек на обнаружение. Не отменяет того, что ты охуенно тупо написал свой первый коммент. Щито уж тут поделать, десу.
Угу, особенно когда дело касается самообучающихся программ. И которые, после обучения, могут показывать довольно интересные результаты — например, ты явно не ожидаешь, что ИИ научится эксплойтить ту же физику движка, а тут на тебе! (9.00 на видео)
Ясен хрен прописывалась физика объектов и взаимодействия, вопрос не в том что они используют, а как они это делают. По задумке они должны были строить себе укрытия и лабиринты чтобы в них прятаться, а не запирать ищущих в углу.
Нечто подобное с креативом показал ИИ когда должен был управлять пауком, и было задание "перемещаться не касаясь ногами пола" или что-то в подобном русле. Он перевернул паука вверх ногами, и тот почапал к цели на коленках (хз как по другому назвать места сочленения суставов у пауков).
Так же где-то еще учатся крутые боты для сражений в старкрафт и т.д. играх)
Так что, думаю вопрос заданный Уилом Смитом в фильме "я робот" можно считать не таким уж и актуальным... большая вероятность того что подобного рода ИИ как в этой теме напишет музыку чем ткнуть простого ноунейма и попросить чтоб тот нарисовал или сыграл шедевр.
До-о-о, канешна. До сих пор помню как на какой-то инт привезли этих скайнетов, наученных ластхитить на миду. Ебали, чемпионов мира, да. Но только пока те приходили на мид и пытались переластхитить идеальную ластхит-машину. Буквально через пару дней ИИ уже не забирал вообще ничего, т.к. человеки придумали тактику, которую он никогда не видел, а обучаться как человек он нихуя не умел, только как машина. Создатели такие оправдывались – ну нам пару недель дать, мы посимулируем это несколько миллионов раз и он научится. Мне после этого всё о машинном обучении стало ясно.
Ох ебать, в настолочки научились выигрывать, вот это новость. А шимпанзе может экран с сотней чисел, мелькнувший на полсекунды, скопировать по памяти, и че теперь. Ясен пень, что в примерах со строго очерченной правилами закрытой системой (как-то шахматная доска) побеждать можно тупо за счет того, что ты мощный калькулятор. Факт остается фактом – если вдруг добавить к этой системе измерение (или лучше десять), то калькулятор обосрется и пойдет еще три месяца дрочить, а человек сориентируется в сравнительно приемлемый срок.
Если эти самые "худшие" человеки изобретут какой-то сверхкомпьютер, позволяющий проводить вычисления, на которые сейчас уходят месяцы, за секунды, то да – сориентируется. А так пустая брехня.
А ИИ нужно, чтобы сразу несколько таких не умеющих нихуя личинок выросло, получило профильное образование и потом написало ему код. Пиздец аналогии за триста.
А ты типа дальновидный. С чего ты взял, что человек достиг потолка своей эволюции? Мы даже толком генную инженерию применять не начали, не говоря уж о ай нева аскд фо дис.
AI это самообман и развод тех кто не в теме. AI никогда не делает выводвы. Вот например если вы научите AI распозновать круги и квадраты то если вы ему покажите квадрат с круглыми углами то AI никогда вам не скажет "О, бля, так этоже квадрат с круглыми углами", он тупо вам скажет это не квадрат и не круг ... вот и все. Т.е. "мозгов" сообразить что это новая фигура у него нет. Вся эта AI это "реакция на разрожитель" не более того
Потому что ИИ выбирающий только из 0 и 1 не ИИ. Просто многие привыкли программный набор алгоритмов называть интеллектом, что многим людям, работающим в сфере исследования ИИ и не нравится. Но тут важнее другой фактор, само определения слова "интеллект", тем более искусственно созданный. Большинство сравнивают ИИ с человеческим интеллектом, пытаясь отождествить эти два понятия. Суть отождествления такова, что нужно что бы созданный интеллект был полностью аналогичный человеческому, причем учитывая человечество, в множестве его вариантов или беря за основу только его концепцию. Но если брать только саму концепцию, в которую входит принятие решений и обучаемость (и т.д. и. т.п.), то тот же программный набор алгоритмов таки может в основные "деятельности" входящие в саму концепцию, просто этот набор будет не столько из сложных, сколько из самопишущихся. Когда алгоритм будет сам себя дописывать, с тех пор заработает так называемая "обучаемость". Другой вопрос, что при определенных обстоятельствах алгоритм почти всегда будет приходить только к одному "правильному" решению. Даже если будут другие вводные данные и результат выдаваемый алгоритмом будет другим, он все равно будет самым "правильным" для него, что опять же не вяжется с "человеческим фактором". Но что такое человеческий фактор в компьютерной логике? Это набор "рандомных значений" и багов, самом собой все равно управляемые определенными правилами (рандом, но в определенных рамках, что например можно отождествить с человеческим характером или той же моралью, если очень грубо). Вводим в наш сложный самопишущийся алгоритм такие "баги" и это уже будет не калькулятор, выводящий одно единственное "правильное" окончательное решение из множества переменных, а уже свой вариант "правильного" ответа, который может не совпадать с другим алгоритмом, который прошел "обучаемость" по другому пути. И третий (или какой там фактор) - это эмоции. Без эмоции нет человеческого фактора (а мы же с ним сравниваем ИИ), но входят ли эмоции обязательным пунктом в само определение "интеллект" и можно ли те же эмоции запрограммировать каким-то алгоритмом (даже самопишущимся и с выработкой тех же самых "багов")? А главное нужно ли это? Про инстинкты писать не буду, это вообще природный алгоритм, который легко (не очень на самом деле) перевести в программный, просто будет он в иерархии принятии многослойного решения, где-то одним из первых (само собой двигаясь по иерархии с помощью тех же "багов", человек же может своим сознанием перебороть инстинкты, значит и алгоритм должен уметь). А теперь переносим наш алгоритм в те же условия, что и человека, то есть загружаем его в сложный механизм, упрощенно который мы называем роботом (с датчиками, имитирующими органы чувств) и все - наш "программный код" попал в среду, где в его иерархии решений теперь в верхних пунктах всегда будет инстинкт выживания и страх "смерти" (если мы конечно так запрограммируем изначальный код, в следствии которого поверх уже будет создаваться самописный код). Собственно вся сложность заключается в написании достаточно сложного алгоритма, который смог бы самоизменяться в нужных направлениях (нужное направление - это имитация разумного существа) и делать это "правильно" (а не уходить где-то в сторону философии Ситхов, ну или ленивцев сиуцидников, кто знает куда алгоритм "допишется"), а это уже само собой настолько сложно, что практически кажется невозможным (как не иронично, но из-за ограниченного человеческого разума на данный момент), что ну его нахуй и можно даже не рыпаться в этом направлении. Но это не значит, что это невозможно в теории.
А если кратко, то есть алгоритмы, которые тебе ответят на твой вопрос с фигурами. Вот только да, это все еще далеко не ИИ, а обычный запрограммированный набор алгоритмов с минимальным обучением в рамках каких-то узких прописных ситуаций.
Согласен. А ещё некоторые, когда слышат о нейросетях вообще представляют себе невесть что, хотя это просто большая математическая векторная функция от векторного аргумента.
Отличный комментарий!