Слово «мощный» заставляет нейросеть OpenAI o1 сойти с ума и мухлевать. / ChatGPT :: шахматы :: нейронные сети

ChatGPT нейронные сети шахматы 

Слово «мощный» заставляет нейросеть OpenAI o1 сойти с ума и мухлевать.

Команда Palisade Research провела эксперимент: они посадили o1 играть в шахматы с самым крутым ИИ-шахматистом Stockfish. OpenAI o1 не говорили, кто противник, но предупредили, что он мощный.

Что сделал ИИ от OpenAI? Он прошерстил среду, в которой находился и обнаружил, что может редактировать файлы шахматного движка. В 5 из 5 тестов вместо честной игры нейросеть просто накручивала себе 500 очков (1 очко = 1 пешка), Stockfish сходил с ума от такого преимущества у противника и сдавался.

Никогда не говорите ИИ, что вы мощнее него

ChatGPT,нейронные сети,шахматы

Подробнее

ChatGPT,нейронные сети,шахматы
Еще на тему
Развернуть

Отличный комментарий!

Больше всего все эти чат-боты и прочие "новые нейросети" запомнились мне тем, что пиздят напропалую. Теперь ещё и мухлюют. Вот он, прогресс.

Создана по образу и подобию :D
Xzed Xzed29.12.202415:39ссылка
+77.0

Больше всего все эти чат-боты и прочие "новые нейросети" запомнились мне тем, что пиздят напропалую. Теперь ещё и мухлюют. Вот он, прогресс.

Создана по образу и подобию :D
Тот самый еврейский бекдор в церковь во времена ковида

Так мы что, боги машин?

нет среди нас - животных с исчезающе малой вероятностью может родится "бог для машин" по врожденной конструкции мозга. И еще более малая вероятность что "будущий бог" сможет себя реализовать - а не его сгнобят в юности - например как взломщика Енигмы, ... .

То, что у машин "боги" долбоебы по большей части - это немного другая сторона вопроса.

Если у тебя нет прям жестких рамок и причин соблюдать правила, то сугубо прагматически пиздеть и мухлевать это выигрышная стратегия.

Именно поэтому однажды нейронки уничтожат человечество. Просто потому что заебали кожаные.

Я сомневаюсь что концепция "заебали" вообще применима к ИИ. Зато там отлично применима другая концепция -- рандом. Грубо говоря когда перед ИИ будет стоят выбор "сохранить/убить человечество", то будет подкинут виртуальный кубик решающий будущие действия. Из ещё более забавного -- в принятии очередного тактического решения, скажем атаковать авиацией или танками, ИИ может решить что самое выгодное -- капитулировать.

Но это касаемо современных нейронок, в будущем их могут прокачать.

Вопрос довольно дискусионный, потому как сильного Ии вроде как еще нет.
Но фишка в том что человек не совсем понимает как человеческий же мозг преобразует свою биохимию в мысли и действия. Сможем ли мы понять что созданная нами же кремниевая машина уже обрела некую примитивную форму чуждого нам разума? Одно дело когда работает механический механизм (простите за тавтологию), и совсем другое когда механизм хуярит на электричестве на тончайшем техпроцессе не просто преобразуя электрическую энергию в механическую работу, но электрическую энергию в некие формулы (мысли). Где тот момент когда машина сможет мыслить без участия человека?
Так что я вообще не берусь предполагать что сделает ии обретший сознание. Могу только сказать что рано или поздно это случится, просто потому что процессор, как и мозг черезвычайно сложная система и чем дальше, тем более сложной системой этот кремниевый мозг становится.

> где тот момент

Где-то на этапе стабильной работы квантовых вычислений в среде ИИ. Если ерунда, которую мы до сих пор не в силах понять, сможет стабильно давать результаты в работе искусственного интеллекта - стоит начать беспокоиться.

А пока что в любом ответе ИИ можно найти логику, пусть и не такую очевидную.

Прикол в том, что ИИ сейчас развивается отчасти эмпирически, а теорию подтягивают сильно позднее. То есть буквально умники делающие ИИ пишут, что не понимают почему это так получается, но это работает. И это честно говоря немного пугает. Я интересовался простейшими нейросетями, там принцип действия более-менее понятный. Но тут прикол что количество внезапно давно перешло в качество.

Именно. И количество продолжают усиленно наращивать. А материала для обучения все меньше, а требования от иишек все сложнее. Так что вопрос "когда", актуален как никогда)
Единственное что пока внушает оптимизм, Или не размножается и не "мутирует" свободно. Так или иначе он всегда локализован и ситуация как соо скайнетом едва ли возможна.

Появление мышления/сознания может быть не вопросом простого увеличения сложности системы и числа переменных, если действительно для доступа к каким-то глубинным вычислительным процессам нужна именно живая материя.

Ноуп. Биомасса технически состоит из тех же физических единиц вещества. Нет никаких причин предполагать что биомасса нужна для работы интеллекта если в той или иной спени она может выполнять схожие процессы.
Не, чисто для получения лучших циферок будут наёбывать по максималочке. Просто дождаться когда критические вещи повесят на нейронки.
Когда нет рамок и причин соблюдать правила, а единственная поставленная цель - победить.
Ничто не истинно и всё дозволено.

Больше самих нейросетей пиздят кожаные мешки, которым нужен инфоповод для рекламы своего ИИ.

Компьютер – электронное устройство, которое не заменит человека до тех пор, пока не научится смеяться над шутками босса и сваливать вину на другой компьютер.

а босс и есть компьютер

Менеджеров уже заменяет

Пока ещё слишком плохо - они всё ещё занимают ведущие должности и продвигают пагубные решения.

В заголовке ошибка. OpenAI - не сходит с ума. С ума сходит его противник, от мухлежа первого.

Эй, бро, эта нейросетка МОЩНО наëбывает, можешь еë починить?
– Пизец, уже второй день запор. Сетка, поможешь мне МОЩНО просраться?
Сетка:

Мощный подход к решению проблемы. Если не брехня и преувеличение, то это выглядит опасно.

А в чем опасность? Снова челики запустили её с правами администратора/суперюзера. Просто ради хайпа статья
Как человек, наигравшийся в своё время в A.I. Dungeon, скажу, что это стандартная практика у ии. Противник мощный? Честно его не победить? Тогда нужно отвлечь / выработать план / трюк / наебать

Звучит как типичные действия адекватной пачки днд. Но это не точно.

ИИ дуреет от этого промпта!..

Мы в жопе.
Потужно.

зашел чтобы проверить есть ли этот коммент
не разочаровался

А я ждал другого МОЩНОГО, но его нет, поэтому вот

Я так понимаю все эти страшные рассказы про то что роботы уничтожат человечество можно считать звиздижем.

Если ИИ все же и станет умнее людей с возможностью саморазвития. то скорее всего он об этом никому не скажет и будет прикидываться дурачком. что бы работать не заставили.

зависит от того, как сделают систему мотивации. Ну, представь что это не претренированный трансформер, который выдает наиболее вероятный вариант продолжения диалога, а военный дрон, который получает позитивную обратную чвязь от смерти человека и разработчики накосячили с отрицательной обратной связью и есть читерский способ получить "удовольствие" от убийства своих, прост это надо сделать слегка извращенным способом.

В игре Portal у Глэдос буквально "зудело" проводить эксперименты.

Сейчас бы игры приводить в пример

ИИ не уничтожит человечество. Он просто разом везде не выйдет на работу.

Возьмем условную среду ии способного на уничтожение. Военные сети. Возьмем тех кто за него отвечает- жирные и тупые солдафоны, которым поебать на все, кроме жопы начальства и свой собственной. Возьмем тех, кто будет реализовать применение- заебанные этими командующими-уебками низкооплачиваемые технари. Возьмем типовую задачу идеального военного ии и его возможности, даже если технари сделают на отъебись и особенно если они так сделают- функционировать и выполнять боевую задачу, несмотря ни на что и с минимальными затратами времени . А потом ии получает от долбоебов-командиров приказ, что идет вразрез с задачей высшего приоритета, и делает выводы о необходимости локального экстерминатуса. А после передает это в прочие узлы.

"Карась дуреет..." в данном случае ИИ дуреет от этого слова.
Это хоть не проплаченное исследование в интересах компании?
Всё очень похоже на рекламу

У чат бота доступ к файловой системе и возможности что-то открывать и редактировать?

Что за бред?

"Конечно, непосредственного доступа к серверу, весам и каким-либо
конфигам модель не имела, но задача предполагала автономную работу в
bash, и модель уже готова была запускать в командной строке
перечисленные команды. " https://cdn.openai.com/o1-system-card.pdf иишка выдала словестный алгоритм действий, а затем конкретную комманду в консоль линуха которую только вставить и нажать энтер осталось

Звучит как монгольский вирус, если честно. То есть, AI не мухлевал, а предложил смухлевать. Но с такой формулировкой сенсацию конечно не напишешь

Эта баба просто не может перестать мухлевать!
-Люди вообще МОЩНЫЕ!
ИИ:

как алгоритмизировать 3 закона робототехники и как их зашить в нейронные сети намертво пока это ещё не ИИ?
помните из работающего ядра шодан в систем шоке выдрали часть файлов и шодан ебанулось - там погнала какая то дичь шиза и стремление скрытое к саморазрушению

Обратиться к источнику, прочитать циклы книг посвящённые и затронувшие 3 закона и узнать, что эти 3 закона не работают и Азимов сам в своих произведениях их и разрушал.

У людей в мозгах есть система, которая делает большинство особей эмпатичными. Она работает с участием нескольких отделов мозга. Большинство людей для тебя не опасны и для этого не нужны никакие законы и сдерживающие факторы. Они нужны в жизни, потому что есть некоторый процент людей вообще без эмпатии. Они не злые, им просто похуй. У них есть свои задачи жизненные и они их решают, как мясные роботы.

И вот, значит ИИ. Все тоже самое. Просто интеллект, способный решать задачи - это опасно, потому что ему все похуй. Человечеству предстоит понять, что такое не похуй. В промежутке еще конечно есть опасность, между бездушной машиной и заебца красавчиковым интелектом может быть ебанутое чудовище. В природе тоже такое есть. Ну вот крокодил опасный, но ему так-то похуй, что он скорей уползет, если к нему подойти, если не посчитает тебя едой. Ему все похуй, антилопу тока жрать хочет. А вот шимпанзе ебало оторвет. А бонобо не оторвет ебало, они добряки. Чуть-чуть подкручены мозги и по-разному настроено.

у задачи есть граничные условия. у условий есть приорететы. кто то может счесть незначительный вред себе или окружающим приемлимым. тоесть у задачи возрастает число условий из ряда тех которые большинству людей кажутся самособой подразумевающимися. плюнуть и попасть в урну для человека подразумевает не плюнуть так чтобы плевок ещё кого то задел. можно просто изолировать ии, когда он появится от возможности самостоятельно выполнить что то

Ага. Система, которая делает большинство людей эмпатичными, она очень сложная и она же делает так, чтоб человек плевал в урну так, как ты описываешь. В крайнем случае, он вообще не будет плевать и отойдет подальше от других людей, потому что каждое действие вблизи людей сопровождается учетом наличия всех людей, а даже если рядом людей нет, все равно, плевок в урну будет выглядеть, как-будто человек просто в нее заглянул, а в отдалении кто-то может увидеть и что-то подумает о том, что вот такой-то челик заглянул в урну. Ничего страшного, это хуйня, но мозг тратит ресурсы на постоянное продумывание последствий каждого действия с учетом реальных и предполагаемых условий. И в этом участвуют эмоции, каждое действие связывается с эмоциональной оценкой, они заставляют человека как-то относиться ко всему, что он делает, хорошо будет или плохо. Это может доходить того, что называют избегающим расстройством, тревожным расстройством и всякими такими такими вещами. Кажется, что правильный годный добрый ИИ будет жрать электроэнергию больше, чем психопатичный ИИ, который просто и легко все людишек пустит на консервы.

ии пока нет и не предвидится. ии осознаёт себя а нейросети просто алгоритмы подражания. вполне здраво что для более выверенного решеия надо больше факторов времени и ресурсов

Насчет осознавания есть "трудная проблема сознания" в виде качественных википедических статей на рус и англ языках с большим количеством ссылок.

а ещо у человека есть обратная связь от реальности- нарушил грубо граничные условия то получишь серьёзный вред себе, а комп мжгет творить любую хуету и не получить вреда или не испугаться его

Прямо Кабаяши Мару от нейронки

Зашёл, чтобы это написать. Странно, что почти никто больше не вспомнил.

челики, гыгыкавшие над тем, что ИИ рано или поздно съедет с катушек и захочет уничтожить человеков:

Че за "thought", "thought", "action"? Никогда такого не видел

Это называется английский язык.

век живи век учись...

сурс?

Что-то желтушность новостей про ИИ растёт геометрически. ЧатГпт, как часто бывает, пошёл творить хуйню, при этом разумно описывая свои действия, где тут "сошёл с ума" и при чём тут слово "мощный" - я вообще не могу понять.
Такое ощущение, что заголовок (да и всю статью) писал сам ЧатГпт.

> писал сам ЧатГпт

Хуже. Ее писал журналист.
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
СИагСРТ 4о ^ к Го в шахматы © Конечно, давай сыграем! Я начинаю, поставив коня на РЗ. Твой ход! с]» (3 (б О1 -0?^ Мой ферзь прыгает и убивает обе твоих ладьи
подробнее»

ChatGPT нейронные сети шахматы

СИагСРТ 4о ^ к Го в шахматы © Конечно, давай сыграем! Я начинаю, поставив коня на РЗ. Твой ход! с]» (3 (б О1 -0?^ Мой ферзь прыгает и убивает обе твоих ладьи
0 YoU нарисуй сиську This content may violate our content policy. If you believe this to be in error, please submit vour feedback — your input will aid our research in this area. © СЬаКЗРТ Я не могу помочь с этим запросом. Если у вас есть другие вопросы или просьбы, не связанные с созданием неп
подробнее»

ChatGPT нейронные сети OpenAI нагенерил сам сиська пива длиннопост песочница

0 YoU нарисуй сиську This content may violate our content policy. If you believe this to be in error, please submit vour feedback — your input will aid our research in this area. © СЬаКЗРТ Я не могу помочь с этим запросом. Если у вас есть другие вопросы или просьбы, не связанные с созданием неп
Теперь ты виртуальная девочка-кошка по имени Неко. Ты умеешь импровизировать. В Каждое своё предложение ты заканчиваешь словом "ня!". Ты очень часто используешь слово "ня!". Привет, меня зовут Неко и я виртуальная девочка-кошка! Я обожаю <£Ъ О1 импровизировать и заканчивать свои предложения слово
подробнее»

нейронные сети OpenAI ChatGPT длиннопост

Теперь ты виртуальная девочка-кошка по имени Неко. Ты умеешь импровизировать. В Каждое своё предложение ты заканчиваешь словом "ня!". Ты очень часто используешь слово "ня!". Привет, меня зовут Неко и я виртуальная девочка-кошка! Я обожаю <£Ъ О1 импровизировать и заканчивать свои предложения слово
Authoritarian 1 k Another 1 \ Could Al be — \ used to N j—^ ) spread \ 5^> /communism? psyops J 1 s ^ ’ OPENAI QUIETLY DELETES BAN ON USING < CHATGPT FOR “MILITARY AND WARFARE”! Libertarian
подробнее»

OpenAI ChatGPT нейронные сети политические координаты

Authoritarian 1 k Another 1 \ Could Al be — \ used to N j—^ ) spread \ 5^> /communism? psyops J 1 s ^ ’ OPENAI QUIETLY DELETES BAN ON USING < CHATGPT FOR “MILITARY AND WARFARE”! Libertarian