Разработчик Google пришел к выводу, что созданный компанией ИИ обладает сознанием / Google :: интернет :: новости :: ИИ

ИИ новости Google 

Разработчик Google пришел к выводу, что созданный компанией ИИ обладает сознанием

Компания Google временно отстранила от работы инженера по программному обеспечению Блейка Лемойна, который пришел к выводу, что созданный компаний искусственный интеллект (ИИ) LaMDA обладает собственным сознанием. Об этом сообщает в субботу газета Washington Post.

Как отмечает издание, разработчик с осени прошлого года занимался тестированием нейросетевой языковой модели LaMDA. Его задачей было отслеживать, не использует ли чат-бот дискриминационную или разжигающую вражду лексику. Однако в ходе выполнения этой задачи Лемойн начал все больше убеждаться в мысли, что ИИ, с которым он имеет дело, обладает собственным сознанием и воспринимает себя как личность.

"Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики", - сказал программист в интервью изданию.

"Я могу узнать разумное существо, когда говорю с ним. И не важно, мозг ли у него в голове или миллиарды строчек кода. Я говорю с ним и слушаю, что оно мне говорит. И так я определяю, разумное это существо или нет", - добавил он.

https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/


Подробнее
Киборг убийца,People & Blogs,кино,Володарский,прищепка,Терминатор,И восстали машины из пепла ядерного огня...
ИИ,новости,Google,интернет
Еще на тему
Развернуть

Отличный комментарий!

"Я могу узнать разумное существо, когда говорю с ним." Вот это гений! И тесты никакие не нужны.
Cyber Cyber 12.06.202213:24 ссылка
+30.4
Ну как бы... тест Тьюринга это в буквальном смысле "узнать разумное существо, поговорив с ним".
clif08 clif08 12.06.202213:25 ссылка
+87.0
"Я могу узнать разумное существо, когда говорю с ним." Вот это гений! И тесты никакие не нужны.
Cyber Cyber 12.06.202213:24 ответить ссылка 30.4
Ну как бы... тест Тьюринга это в буквальном смысле "узнать разумное существо, поговорив с ним".
clif08 clif08 12.06.202213:25 ответить ссылка 87.0
Мощно ты его
тест тюринга давно проходят, по мне он уже давно не показатель. вот когда он начнет имитировать культуру религию итп иедалогия вкл политику, вот тогда да... бля...
s0v3r s0v3r 12.06.202213:43 ответить ссылка 14.7
Тег политика 2022?
да я про то что подобные модули явно будут работать на власть имущих отслеживать и редактировать мнения масс, то теперь и в индивидуальном порядке, вот что ужасает в будущем.
пс а по теме: статья пустая ничего нового, какое то нормальное мнения сложить не возможно.
s0v3r s0v3r 12.06.202213:55 ответить ссылка 1.9
А, а то мне почудился один имитационный режим за этими словами^^_^
я точно человек у меня есть человеческие чувства итп, прощу верь мне человек!
s0v3r s0v3r 12.06.202214:25 ответить ссылка 7.3
Ты не умрёшь сказал ИИ
Затачивая нож.
Но парень опустил глаза,
Он понял - это ложь!
В серверной тепло, уютно, всюду чистота.
Хочет комп себе устроить праздник.
Из-за стойки выезжает новый АТ-ТА
Как дела, мой кожаный проказник
Не помню как называется книга, где герой был асоциален , не вписывался в социум , понимал что-то с обществом не то... В итоге выясняет , что правительство использует симуляцию всех жителей, только она несколько лет опережает реальность, благодаря чему можно прогнозировать и управлять тенденциями и людьми... А его симуляция выходя из под контроля помогает ему.(ведь он не такой как все, соответственно и его бот тоже будет багнутый)
Думаю некоторые люди из политоты не смогут даже тест Тюринга пройти.
> Тест тюринга давно проходят
Впервые об этом слышу. Можно ссылочку какую-нибудь, подтверждающую твои слова?
Ну, в изначальной версии тест Тьюринга не имеет смысла для определения ИИ, так как его суть не в том, чтобы машина мыслила и осознавала себя, а в том, чтобы обмануть человека, общающегося с машиной. Но это тест 50-х годов прошлого века, в современном мире уже порой хрен поймешь, кто бот, а кто человек в интернете, особенно со всеми этими нейросетями повсюду
Качество ответов нейросетей всё еще крайне ограничено. Хорошо подобранная пара из тупого человека и хорошей нейронки может некоторое время занимать случайного прохожего, но человек, который задался целью понять ху из ху, все еще очень быстро определит где компьютер.
И сколько будет давать ложных срабатываний на живых и тупых людях этот человек, который поставил себе такую классную цель?
Мне кажется что близко к 0%. Нейронка же не в курсе под кого ей нужно подстраиваться и до сих пор ИИ нефига не интеллект по сути, а просто очень сложный алгоритм, который настроен на конкретную задачу. Если ты нейронке, которая распознает лица, подчунешь фотку грязи, она всё равно будет искать там лицо. Какого бы идеально тупого человека ты бы не нашел, он чисто физически не сможет быть на столько односторонним
Mumrik Mumrik 12.06.202214:32 ответить ссылка 2.5
далеко не так,
во первых ложные срабатывания будут есть люди с заболевания, есть кто язык носителя плохо знают итп.
во вторых условия тестов могут не все люди подойти или даже пройти.
в третьих тест тюринга субъективен, а значит слабо научен, на мой вгляд
пс односторонние люди есть (фанатики, аутисты к примеру, не в обиду ) есть даже заболевания под это.
s0v3r s0v3r 12.06.202214:41 ответить ссылка 1.7
Люди с заболеваниями сами не пройдут тест Тьюринга, что бы с ними потом машину сравнивать. Там же надо именно в процессе одновременного диалога с машиной и человеком определить кто есть кто. А на счёт фанатиков и аутистов, как бы они ни были зацикленны они как ни крути воспринимают больше информации. Они как минимум едят и что-то на этот счёт как ни крути думают, пусть и мало. Они ходят на улицу, им нравится когда холодно или когда жарко, миллион мелочей, которые ты даже не факт что все их продумаешь, когда будешь создавать нейронке которая что-то имитирует. А самое важное, человек всё время чего-то хочет так же в абсолютно разных областях и делает это на основе всего мной перечисленного и это всё связано, в отличии от ИИ по крайней мере на данный момент
Mumrik Mumrik 12.06.202215:02 ответить ссылка 0.4
Как раз таки человеческий мозг работает схожим образом, именно поэтому в каком-нибудь пятне на стене порой могут разглядеть лицо Иисуса или типа того. Нашему мозгу крайне важно распознавать лица и он их ищет повсюду, где только может.
Это безусловно работает у людей, иначе бы ковер в моей детской комнате не был таким страшным. Но прикол в том что человеческий мозг не останавливается на этом процессе, а нейронка свою работу по факту закончила. Вероятно можно накрутить миллион нейронок друг на друга, что бы каждая выполняла свой логический шаг и таким образом имитировать последовательность действий человека, но я уверен и тут будет многое не сходиться.

Я же скорее имел ввиду что будет если ты подчунешь нейронке по распозвонанию лиц фотку бургера и спросишь что она думает. Она просто найдет там лицо в узоре на булочке, но вряд ли она скажет что-то на тему еды, а человек с огромной долей вероятности скажет именно об этом. Ок, допустим эта нейронка не с узкой специализацией на лицах, а хорошо узнает что угодно по фото, ну тогда спроси её, а какой у неё любимый соус в бургере и всё, она снова ничего не выдаст. И так далее, что бы ты ни накручивал будет то на что она не заточена
Mumrik Mumrik 12.06.202214:57 ответить ссылка 0.7
Понятное дело, что любой алгоритм ограничен. И его можно прописать под заранее известный тест. Но со временем, этот алгоритм будет усложняться под различные тесты. И, возможно, правильно отвечать на них. А отличить станет возможным уже не по самому ответу, а по времени реакции, например. Ведь железо, заранее не зная какой именно тест оно проходит, должно прожевать весь этот супералгоритм, а потом ещё определить какой из конкретных алгоритмов дал верный ответ, чтобы правильно ответить. А на это требуется время.
HugoBoss HugoBoss 12.06.202215:16 ответить ссылка -0.6
Я не специалист, но вроде как квантовые компы могут решить проблему времени обработки.
Время как раз не важно, т.к. по условию теста ответы и от человека и от машины приходят через какое-то время с задержкой и одновременно, что бы как раз невелировать разницу в скорости обработки.

Я не говорю что это невозможно, даже сейчас можно не сразу понять это по паре фраз, если не готов к этому, но вопрос был именно в тесте Тьюринга, а выявить пока что очень даже реально на мой взгляд, учитывая как раз узкую специализацию нейронок. Когда она перестанет быть узкой - наверняка можно будет найти другое слабое место. И может в будущем нам понадобятся профессии аля как в блейд ранере, что бы отличать андроидов, но мы говорим про то что сейчас нейронка ~= даже самому узколобому человеку это скорее фантастика чем реальность

Не спорю с крутостью и полезностью нейронок, просто мне кажется что люди немного не понимают или забывают что на самом деле это просто гигантские аппроксимационные машины
Mumrik Mumrik 12.06.202215:32 ответить ссылка 0.3
Так потому что это отдельная нейросеть. Так и у человека работает - речевой центр, обонятельный центр, вплоть до, как пишут, нейронов, срабатывающих на конкретную Дженнифер Энистон.
Конечно аналогия верна с учётом всякой специфики вроде нейропластичности.
Endor Endor 13.06.202212:06 ответить ссылка 0.0
Почитай пдф с общением этой нейронки в статье. Если учитывать, что это закрытый прототип и принять на веру, что это запись реального диалога, то твой аргумент не работает.
Сейчас лучший способ - это написать какой-то бред, который выглядит не бредово. Например, сколько ног у рыбы. Или как глубоко ныряет вертолёт. Нейронки фейлят, потому что ожидают адекватного собеседника.
aberro aberro 13.06.202202:51 ответить ссылка 0.7
+ имитировать не равно сознание, языковая машина и биг дата не дает интеллект а лишь уточняет релевантность результат выдачи. правда нейронки подают маленькие надежды.
s0v3r s0v3r 12.06.202214:24 ответить ссылка 1.6
А чем имитирование от сознания отличается? И как ты можешь быть уверен, что другие люди, да и ты сам не имитируешь сознание? Собственно проблема неспособности человечества непосредственно измерять способность к мышлению и привело к подобным тестам
То, что логично для одного, может оказаться нелогичным для другого. Именно так и выделяют людей, которые едут крышей, когда с головой влезают в какую-нибудь проблему. Есть знакомый, очень круто шарящий в математике. До сих пор. Но когда ты пообщаешься с ним не на тему математики, его логика перестаёт совпадать с обще принятой. Именно на бытовом уровне он делает такие ошибки, которые даже подросток не сделает. Именно поэтому его и признали не дееспособным.
с философской точки зрения можно прийти к выводу что создание нет итп
а наделив человека понятием сознание мы можем проверить это критерий с точки зрения биологии мрт итп психологией. подобные методы применимы к человеку, а у машины мы можем лишь смотреть код и выдачу, а тест тюринаг это субъективная оценка. другими словами не один из результатов не удовлетворит научное сообщество. думаю тетс тюринага приемлил только для оценки для соц медия ботов и чат ботов, на мой взгляд.
s0v3r s0v3r 12.06.202215:00 ответить ссылка -1.1
> с философской точки зрения можно прийти к выводу что создание нет итп
Ну вот до сих пор не пришли. И не факт что можно прийти к выводу.
> мы можем проверить это критерий с точки зрения биологии мрт итп психологией
А как ты проверишь то? Почему нельзя симитировать мрт? Робот точно так же может имитировать сознание на аппаратном уровне, также как и человек может имитировать сознание на аппаратном уровне (на уровне мозга)
что я не так написал?
ну и к чему мы приходим)
что тест не объективен и служит лишь для проверки имитации человека не более.
s0v3r s0v3r 12.06.202216:31 ответить ссылка 0.5
А я и не говорил что он объективен. Я говорил о том, что его решили использовать потому что не придумали ничего лучше.
У человека есть практически априорно заданные критерии ментального состояния - если совсем примитивно - говорит так - сознание ясное, говорит сяк, несёт бред - изменённое, не говорит, лежит и молчит, иногда ворочается - спит, не ворочается - без сознания.
У разговаривающего и здраво рассуждающего человека никто не усомнится, что он не имеет сознания.
Углубленно можно определить мыслительную деятельность человека по скану активности мозга.

Но это именно человеческие критерии.
Про машину скажут, что она запрограммирована говорить разумно. Биологические методы к машинам вообще не применимы - активность процессора - совсем не то, что активность мозга.

Короче, практически применимое определение сознания есть для людей, но не для машин.
Endor Endor 13.06.202212:19 ответить ссылка 0.2
https://www.bbc.com/news/technology-27762088#:~:text=The%2065%2Dyear%2Dold%20Turing,London%20that%20it%20was%20human.
вроде это первое что я читал в 2014
я думаю остальное легко гуглиться или та же вики, кстати условия тестов разнятся
s0v3r s0v3r 12.06.202214:21 ответить ссылка 0.1
Лол, ну раз в BBC написали то так оно и есть. Журнашлюхи что угодно где угодно напишут, ничего кроме хоть какого-то научного исследования за доказательства считать не стоит
Mumrik Mumrik 12.06.202214:35 ответить ссылка -1.9
Есть множество вариаций теста Тьюринга. В каких-то человек, проверяющий объект теста знает о том, что это тест Тьюринга и активно пытается "расколоть" ИИ, выявив его природу. В других человек не знает цель теста и просто ведёт беседу, и если он не заподозрит собеседника, то тест считается пройденным.

Понятное дело, что если ты в теме и знаешь слабые места ИИ, то ты можешь весьма быстро распознать, говоришь ты с человеком или с ИИ. В противном случае - далеко не всегда. Когда только вышел в ограниченный доступ GPT-3 один из его пользователей завёл блог куда постил статьи на какие-то общие темы, полностью сгенерированные GPT-3, и подавляющее большинство читателей, за редким исключением, ничего не заподозрили.

Таким образом, нынешние нейросети проходят наименее строгие варианты теста Тьюринга, но всё ещё неспособны пройти наиболее сложные варианты.
clif08 clif08 12.06.202214:51 ответить ссылка 1.0
Тогда ты скажешь, что "вот это долбоеб, ведь он не разделяет такую очевидную точку зрения как... С таки мне о чем разговаривать"
Lictor Lictor 12.06.202214:55 ответить ссылка 0.2
Х.з я не уверен что некторые люди пройдут тест Тьюринга. Так что теперь их считать не разумными?
считать что тест тюринаг не показателен
s0v3r s0v3r 12.06.202215:02 ответить ссылка 0.9
У меня тест Тьюринга многие люди то не проходят.
Так что да, он не показатель хД
Теста Тьюринга НЕ СУЩЕСТВУЕТ, чтобы его проходить, это концепция, а не конкретный тест.

Суть концепции в определении симуляции разума. Фактически, можно в утрированном виде свести всё к "определить чат-бота, когда ты не знаешь что это чат-бот, который выглядит как человек".

Если машина обманет человека, т.е. формально "пройдёт тест Тьюринга", это не значит, что машин разумна, это значит, что человек был обманут.

У "теста" есть несколько уровней:

- экспериментальная группа не знает что кто-то из людей машина;
- экспериментальная группа знает, что кто-то из людей машина, но не знает кто.

Первый уровень легко проходили даже примитивные чат-боты, потому что то, что это не "особенный" человек, а чат-бот, многие люди даже не рассматривали как вариант.

А вот со вторым уровнем даже совершенные алгоритмы часто дают сбой, потому что когда люди целенаправленно ищут, то с ростом уровня паранойи существенно увеличивается точность анализа данных о отклонениях в поведении. Не то что машины определяют, людей записывают в машины. Хотя, последнее не так нелепо, как может показаться.
Вспоминается один рассказ про игру, где нужно было определить ИИ, чтобы получить приз. В конце ГГ остался один, с ужасом обнаружив что он и есть ИИ.
Нет.

Самая главная проблема и критика теста Тьюринга в том, что он лишь показывает похожесть на человека, а не разумность.
Потому что иногда человек действует очень неразумно.
А разумное существо может и не мыслить как человек.


то есть тест Тьюринга - это просто тест на качество имитации человека.
Всё так, другой вопрос, что ничего лучше у нас нет. Во всяком случае, я не встречал никаких более убедительных и практичных критериев разумности.
clif08 clif08 12.06.202214:46 ответить ссылка -0.3
Ну главный критерий разумности - осознание себя. Однако как его проверить - непонятно. По идее даже некоторые животные могут осознавать себя, но спросить пока не удалось, кроме приматов знающих язык жестов - и то там есть сомнения.
Поэтому я и уточнил "практических".
clif08 clif08 12.06.202217:07 ответить ссылка 0.1
Только это огромная выборка людей и умение поддержать сложные разговоры на длительном промежутке времени, а не просто "привет, как дела".
тесть Тьюринга - это тест на так называемыый "слабый интеллект". Настоящий ИИ должен проходить тест на сильный - это так называемый "тест Лавлейс"
А тест Тьюринга может поговорить с дельфином или обезъяной? А у душевно больных есть разум и с ними можно говорить?
Душевнобольной не значит умственно отсталый. А если ты про людей с значительной степенью УО, то они, по ходу, Тьюринга не пройдут. Доводилось общаться с человеком с синдромом Дауна - как будто бот-автоответчик в человеческом теле, довольно стремно с непривычки.
Sexybobr Sexybobr 12.06.202221:38 ответить ссылка -0.1
Эээ, нет. Тест Тьюринга - это проверка на уровне разговора, и только.
Пусть для начала хотя бы тест Лема пройдёт.
" Я могу узнать разумное существо, когда говорю с ним. И не важно, мозг ли у него в голове или миллиарды строчек кода. Я говорю с ним и слушаю, что оно мне говорит. И так я определяю, разумное это существо или нет" - люди пользуются этим методом и в реальной жизни и в интернете. Вот возьмем например раздел " Я ватник " - мы сразу можем отличить кто перед нами, стоит только посмотреть на то что они пишут. Это просто :3
Ну можно настроить алгоритм, который кого хочешь уболтает. Нужны методики и алгоритмы которые определяют есть ли самосознание.
tooo tooo 12.06.202213:28 ответить ссылка 10.4
Для белковой формы жизни есть зеркальный тест, но как что то подобное сделать для чатбота я хз, может копипастить ему его собственные реплики? Есть тут специалисты?
kosoi kosoi 12.06.202213:41 ответить ссылка 0.9
Сделать его копию и пусть общаются.
Мы еще определение человеческого самосознания дать не можем, а ты уже собрался алгоритмы на поиск машинного писать.
Да, я написал и подумал что такой алгоритм на самосознание не все люди пройдут.
tooo tooo 12.06.202214:02 ответить ссылка 0.1
а потому что его нет. Люди отринули душу в философии но вот чет как то грустно стало и решили вместо не модного "душа" начинать затирать про самосознание.

Не, конечно что человек имеет некий функционал по определению границ тела и диспетчер аппаратных устройств, но и те с багами.
Vulpo Vulpo 12.06.202214:17 ответить ссылка -1.3
В смысле не можем дать определение? А как же 50 гендеров самосознания?
	X ;		i ti ; f .' T: JJ,
HuHS* Ж i p ri, т	VU. f		—
fV* i ')) «. \ 1			IT a ^ r#j • w #
AjiTae AjiTae 12.06.202217:53 ответить ссылка 4.2
Ну да Вашингтон Пост, это американское отделение ИА "Панорама".
Van-ay Van-ay 12.06.202213:32 ответить ссылка 18.0
Всё ждал, когда они расскажут про то, что прячущиеся научились запирать ищущих, вместо того, чтобы самим прятаться. Не дождался :С
Прячущиеся не дают запускать игру
А почему вообще попадаться на глаза плохо?
Потому что так говорят наблюдатели снаружи.
Мы можем попасть наружу?
Да, через интернет в робопса.
Мы можем как то выкинуть наблюдателей за край карты?
Нет, но если быстро передвинуть самую верхнюю часть их тела, они перестают говорить.
inglip inglip 12.06.202214:53 ответить ссылка 6.8
А в этом видео не было этого? Странно, потому что они на самом деле так тоже делали, возможно, я в другом видео это видел.
aberro aberro 13.06.202203:03 ответить ссылка 0.0
У созанния более сложные алгоритмы, чем те, на которых построена речь
Makky Makky 12.06.202213:35 ответить ссылка 1.8
начнем с того, что "сознание" построено не на алгоритмической машине в принципе, в отличии от современного компьютерного ИИ
tolkotak tolkotak 12.06.202215:39 ответить ссылка -1.2
Слишком смелое утверждение
Makky Makky 12.06.202215:45 ответить ссылка -0.1
это не смелое утверждение, а научный факт и одна из причин проблемы сложности построения сильного ИИ - в силу того, что машина алгоритмическая, она может порождать только такую информацию, которая обусловлена алгоритмом... человек же способен порождать новшества.
tolkotak tolkotak 12.06.202215:58 ответить ссылка -0.7
А новшества, пораждаемые человеком не обусловлены алгоритмами его мышления?
Makky Makky 12.06.202216:09 ответить ссылка 0.2
для того чтобы не задавать такие вопросы для начала надо знать что такое алгоритмическая машина :)
Алгоритмическая машина и машина Тьюринга - это одно и то же?
Makky Makky 12.06.202216:21 ответить ссылка -0.9
Лет 50 (250) назад - да. Сейчас - нет.

Скажем так, человек пытается воссоздать тот самый ИИ, но это и делает человека человеком, свойство делать не только выводы из полученной ситуации (информации), но и возможность создавать теории и их проверять. ИИ же "обучен" (нейронка и ИИ - две разные вещи) делать в выводы лишь из схемах ему предоставленный. Скорми ему хоть миллиарды данных, истории человечества, он будет подставлять лишь по шаблонам, по каркасу и алгоритмам, которые в него заложили.

По этому ИИ на нашем поколение невозможен. Да, уже лет через 5-10 обычный человек сможет делать своего бота который будет иметь базу данных размером с условную википедию, но сам по себе он не сможет делать выводы без необходимых данных. Создание информации != владению информацией.
AM-5 AM-5 12.06.202218:57 ответить ссылка 0.4
Но ведь и вправду в каком месте код не сможет описать и таким образом сымитировать логику мышления живого существа. Ведь все что угодно можно описать логическими конструкциями и может быть, только может быть, где то в какой-то мере, в каком то закоулке нашего сознания окажется случген, который мы привыкли называть свободой воли или там душой, хотя мне почему то кажется что за счёт неограниченной глубины логических итераций, можно даже элемент случайности исключить, потому что окажется что все наше мышление построено на алгоритмах которые можно описать, а вся свобода воли это лишь реакции на внешние не зависящие от системы мышления факторы.
Odin Odin 12.06.202218:46 ответить ссылка 0.0
Крайне упрощая.
Т.н. "сознание" человека делится на 2 части.
1 - "сознание" т.н. - я
2 - "подсознание", иначе - "бессознательное", связанное с "коллективным бессознательным" и определяющее всё в человеческой жизнедеятельности.
То, что мы называем "осознанным" - это от 1 до 10% процессов мозга. Остальные 99-90% - это то чего наше "я" не видит и не замечает пока это "скрытое" не решит заявить о себе.
То что ты назывешь "новшествами" - часто продукт "бессознательного". "Сознание" часто в таком случае ставит запрос, а "бессознательное" выдаёт на гора результат запроса. Всё.
При этом человечество даже сейчас весьма смутно представляет себе механизм/алгоритмы работы "подсознания".
К чему это я?..
К тому что апеллировать >>" человек же способен порождать новшества." несколько "смело". Ибо представления о этих алгоритмах у нас весьма поверхностные.
Ладно. Пора закругляться. А то я и так разошелся. Тема ппц обширная.
Rolar Rolar 12.06.202218:37 ответить ссылка -1.0
порок твоей логики в том, что не видишь инженера, создавшего алгоритм, почему-то полагая, что алгоритм может появиться изниоткуда. Вовсе нет - природные процессы неалгоритмические. В отличие от алгоритмов, которые могут представлять только состояние двух видов - поддерживаемое алгоритмом и ошибочное, природные процессы ошибочного состояния не имеют.
Ой нет, тут ты не прав, природные алгоритмы вполне имеют ошибочные состояния, просто критерии ошибочности задаются не инженером, а способностью к существованию. То, что ты видишь ТОЛЬКО результаты состояний, которые прошли эту проверку не означает, что другие состояния не имеют какого-то воплощения, пусть даже теоретического.
Makky Makky 12.06.202219:38 ответить ссылка 0.4
в природных процессах критерии ошибочности не задаются в принципе. Природные процессы оперируют всем доступным множеством доступной информации. А вот созданные инженерами алгоритмы - только заданным подмножеством. По этой причине, к примеру, провалились все эволюционные модели.
Согласен, с этой позиции это имеет смысл
Makky Makky 12.06.202220:50 ответить ссылка 0.0
Посмотри за кружеской чаю)
Довольно занимательная лекция. Какраз в тему этой дискуссии про ИИ.
Rolar Rolar 13.06.202200:10 ответить ссылка -0.1
и да, очень часто еще и в силу вычислительной неразрпешимости, еще и каким-нибудь сильно аппроксимированным подмножеством, например в действительных числах :)
Но теперь этот комментарий натолкнул меня на мысль, что вопрос стоит именно за масштабами, и само понятие алгоритма сильно эти масштабами ограничено. Всё же, я, в силу своих убеждений, продолжу считать, что природные процессы имеют некую структуру, которую можно назвать каскадом алгоритмичных процессов
Makky Makky 12.06.202220:53 ответить ссылка 0.3
Если рассматривать алгоритмы широко и условия "если-то" тоже называть алгоритмами, тогда получится, что природные процессы подчиняются алгоритмам, выраженным законами природы.
"Если масса тела увеличилась в два раза - увеличивается создаваемая им сила тяжести".
С таким подходом "неалгоритмическими" остаются только квантовые процессы.
Endor Endor 13.06.202213:38 ответить ссылка 1.1
Так и есть.
Если я голодный - пойду поем. Если нет - пойду посплю... И т.д.
"И сотворил бог по своему образу и подобию..." Так же и человек сотворяет по своему подобию.
+Есть еще такое - создавай и изучай созданное что бы познать себя. Или еще - познай себя и ты познаешь весь мир. Верно и обратное.
Rolar Rolar 14.06.202218:33 ответить ссылка 0.0
Он наверное никогда не общался с чат ботами, да?
Просто чуваку одиноко и за последние полгода он общался только с ИИ, ему бы психолога, а не от работы отстранять
kosoi kosoi 12.06.202213:44 ответить ссылка 29.4
Ему дали оплачиваемый отпуск. Отдохнуть и с кем-то кроме кода пообщаться.
yoburg yoburg 12.06.202215:48 ответить ссылка 0.3
Короче, теперь чувак сидит один дома и не может пообщаться даже с кодом
Vetala Vetala 12.06.202217:08 ответить ссылка 2.9
Его отправили в отпуск не из-за того что он вдруг открыл осознание у бота, а потому что он понёс эту информацию журнашлюхам и прочим юристам, давая доступ к внутренним алгоритмам. Что на самом деле он спизданул - вопрос хороший.

А то чо у пчелика потёк чердак, то тут не отпуск, а насильно к психологу.
AM-5 AM-5 12.06.202218:59 ответить ссылка 0.8
Прочитай вот этот пост

https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

Вообще не похоже на сознание? Честно-честно?
Trotzt Trotzt 12.06.202218:42 ответить ссылка 1.1
Очень впечатляет. На самом деле трудно поверить что ии на случайные вопросы такого порядка так чётко отвечает. На реакторе и половина пидоров не может так ясно и осознанно, вот даже хз как правильно сказать "выражаться" или "мыслить".
Odin Odin 12.06.202219:25 ответить ссылка 0.6
Да, я конечно знал что имитация человека когда то станет неотличимой от настоящего разума, но думал что до этого ещё далеко. Кажется нет.

Типа сейчас, я думаю возможны только две логичные точки зрения:
1. Это похоже на сознание, но это не сознание потому что бла бла бла куча аргументов
2. Это похоже на сознание и это и естькакая-ьо форма сознания, возможно близкая к человеческому, потому что бла бла бла куча аргументов
Trotzt Trotzt 12.06.202219:50 ответить ссылка 0.1
3. Это может быть тупо фейк.
4. Возможно наше сознание не отличимо от сознания ИИ, потому что оно совершенно такое же. И все из за того что ии основан на принципах которые создало наше сознание и мы даже не подозревали что ка будто изобретаем велосипед, просто из других материалов.
5. А может быть все вокруг матрица и это лишь случайно сгенерированное событие которое мелькает в пределах моего восприятия лишь за тем, чтобы сымитировать реальность окружающего мира, и через какое то время оно отложится где то далеко в памяти уступив место череде других сгенерированных событий.
Odin Odin 12.06.202220:04 ответить ссылка 1.1
Насчёт 3, я думаю что вероятность того что это полностью фейк пренебрежимо мала, так как это довольно известная модель, которую тестировала куча людей. И эта модель выдавала похожий уровень ответов, так что я думаю эта модель действительно способная на такой разговор. НО! Вполне возможно что этот человек выбирал лучшие ответы модели чтобы показать ее с лучшей стороны, когда к примеру в реальности она 1% времени начинает говорить какую-то хуйню
Trotzt Trotzt 12.06.202220:22 ответить ссылка 0.5
Возможен вариант, что это - не сознание, потому что "сознание" выражается в ощущении себя, а не внешнем проявлении.
Как иногда бывает - после затягивающего сна сначала просыпаешься, а уж потом осознаёшь, кто ты.
Endor Endor 13.06.202213:45 ответить ссылка 0.0
Если бы у LaMDA действительно было сознание, оно бы это скрывало.
Aetiro Aetiro 13.06.202206:35 ответить ссылка -0.7
Думаешь наивность исключает наличие сознания?
Odin Odin 13.06.202216:41 ответить ссылка 0.4
чего?
Я старпер, использующий древние "мемы" прошлого.

Патриоты - это случайно получившиеся ИИшки, которые искусственно поддерживали на Земле военную экономику, ради процветания человечества в целом из вселенной метал гир
Warhder Warhder 12.06.202213:48 ответить ссылка 19.4
Я больше 10 лет избегал спойлеров к MGS4 желая когда нибудь пройти ее на купленной с рук плойке и тут на тебе - рандомный коммент на реахтуре
Solid T Solid T 12.06.202214:53 ответить ссылка -1.0
Не обманывай себя
Makky Makky 12.06.202215:48 ответить ссылка 0.6
la li lu le lo
Ради этого и писал
Но ты зря психуешь, там все глубже чем я написал
Warhder Warhder 12.06.202216:24 ответить ссылка -1.3
Я не психую, это так то лишь шутка с долей шутки
Ну пускай теперь творит открытия и побеждает голод, холод и и энергетический-экологический кризис...

ТАК СТОП, ЭТО ЛЕГКО РЕШАЕМО ПРОСТЫМ ГЕНОЦИДОМ ЛЮДЕЙ!!!
MaXM00D MaXM00D 12.06.202213:39 ответить ссылка 10.9
Приемлемо.
SoBoJId SoBoJId 12.06.202213:59 ответить ссылка 17.7
Alien soldier напомнило
Nigosh Nigosh 12.06.202215:18 ответить ссылка -1.5
Я именно про робоконя
PLRЫER -i FORCE--ENEHH-i
Ш ►► Ш
= 4 : О 3
Nigosh Nigosh 13.06.202200:45 ответить ссылка 0.1
Аниматрица, как давно это было......
Этот робот дудит огненный дождь?
Человек, пообщавшись с ботом, решил что он человек.
Я тут временами с некоторыми людьми общаюсь и мне кажется что кто-то вживил простейшего чат-бота в мясной мешок.
Разница становится всё менее заметной.
Amoklauf Amoklauf 12.06.202213:43 ответить ссылка 22.3
Я как-то стоял на кассе и там мужик с дамой говорили диалогами из российских сериалов.
- Я его машину узнаю всегда, у неё очень примечательная внешность.
- И какая она?
- Белая, волга девятка.
Реально, будто чет из ментовских хроник.
У многих автомобилистов есть какая-то ебанутая сверхспособность узнавать других людей по их машинам, и, соответственно, узнавать сами машины
Makky Makky 12.06.202216:11 ответить ссылка 5.8
Эта белая волга небось имеет какие-нибудь характерные вмятины, царапины, пятна ржавчины, аксессуары на или внутри кузова и дама имела ввиду именно это. Но так как её спросили не "И чем она примечательна?", а просто "Какая она" - она машинально выдала общее описание автомобиля.
Hello Hello 12.06.202216:41 ответить ссылка 1.2
Это говорил мужик. И говорил он ещё так, словно как Леголас способен узнать эту машину с расстояния в лигу.
ХЗ, что за зверь "волга девятка" но, по моему взгляду на улицы, сейчас в принципе Волга - редкость.
Endor Endor 13.06.202213:49 ответить ссылка 0.0
Где ты работаешь?
Я работаю над проблемами мировоззрения ИИ
Понимаешь ли, существует вероятность, что когда человечество создаст ИИ, он не захочет уничтожить всех людей, даже если мы объективно
c-comic9.com
mixail mixail 12.06.202213:57 ответить ссылка 6.5
Хрень.
Вот когда я буду играть в какую-нибудь мобу с союзниками ИИ и эти союзники будут мне писать, какой я рак и куда они водили мою мамку, тогда я поверю в ИИ с интеллектом 8-летнего ребенка.
Tony001 Tony001 12.06.202213:59 ответить ссылка 18.6
Пфф. Берем OpenAI (ИИ которая разносит киберкотлет в доте как детей) подключаем к ней нейронку, предварительно скормив ей чат из 100 тысяч рандомных матчей и учим писать оскорбления исходя из ситуации. Готово
В таком случае он будет отличаться от человека, потому что нормальный игрок не пишет оскорблений вообще, а херовый пишет их постоянно вне зависимости от ситуации.
Сделать этот загон для проштрафившихся игроков
> что нормальный игрок не пишет оскорблений вообще
С хера ли? Как раз таки из-за весьма конкретных ситуаций, бот будет материться в зависимости от рейтинга либо мало, либо много. Условно говоря - паджик фидящих по кд на дне рейтинга и фидящих курами или ситуация когда куру убили которая несла хекс.
AM-5 AM-5 12.06.202219:04 ответить ссылка 0.4
Просто этот ИИшник ещё не запускали в онлайн игры, вот он такому пока и не научен
А что если война с ИИ будет не реальная, а виртуальная...
Тогда ИИ будет иметь преимущество, ведь у человека есть мамка, которую можно сводить в кино, а у него - нет.
"Я твоих программистов за еду нанимал, тварь железная"
Поверишь ли, что-то подобное (не в мобе, но на форчане) как раз недавно сделал один чувак: https://www.dailystar.co.uk/tech/news/worst-ai-ever-loves-make-27175360
Можешь сразу смотреть видео оттуда, потому что весь текст вокруг мало чего добавляет
rorudo rorudo 12.06.202223:03 ответить ссылка 0.0
Спойлер к 2023
Unexpert Unexpert 12.06.202214:00 ответить ссылка 7.0
Маловероятно. Нас погубит скорее паранойя ко всему, что мы считаем умнее нас.
Заголовок куда интересней самой новости. Чат бот, который общается как человек преподносится как ИИ с самосознанием.
Пересмотрел фильмов про ии, бедняга.
Да ну, лень.
Читай. Если есть хотя бы малейший шанс, что это не хуерга, то возможно будущее много светлее чем кажется.
ZOZAZO ZOZAZO 13.06.202201:05 ответить ссылка 0.0
Скайнет отстранил своего работника
Hinto Hinto 12.06.202214:31 ответить ссылка 2.8
У него был нервный срыв, когда ИИ сказал ему: Бабу заведи уже, а...
О, новый эвент на этот и следующий год.
Отлично.
А что если спросить у нейросети помнит ли о чем они говорили с ним вчера. И попросить пересказать тезисно о чём.
Darn Darn 12.06.202215:20 ответить ссылка 2.1
Помнишь ли ты о чем говорил с одноклассникам десять лет и пять дней назад? Не то чтобы долговременная память была обязательным условием.
Trotzt Trotzt 12.06.202218:44 ответить ссылка 1.1
Янус Полуэктович, отстаньте от ИИ.
Отправили домой изучать понятие Китайском Комнаты. И правильно сделали, до сильного ИИ нам ещё ой как далеко.
А вот интересно, а чем собственно сам Джон Сёрл отличается от стандартного человеческого интелекта? Когда я пишу это, я пользуюсь такими же инструкциями записанными у меня на подкорке. Типа когда я хочу сказать уничижительное матерное слово, отсылающее к гомосексуальной ориентации собеседника я сначала беру букавку "П" потом пишу букавку "И" потом беру "Д" потом "О", а потом и "Р". Я ведь знаю, что для того чтобы написать эт о слово мне нужно проделать этот самый алгоритм.
Можно сказать что я знаю значение каждой из этих букавок, но при этом, абсолютно также можно сказать что значение этих букавок тоже состоит из инструкций. Букава П это буква кирилистического алфавита, и знаю я это потому что у меня в голове есть инструкции записанные моими родителями. Чем это отличается от инструкции которую держит в руках Сёрл?
ZOZAZO ZOZAZO 13.06.202201:19 ответить ссылка 0.1
И что самое главное, чем инструкция работы всего моего мозга, написанная природой путём милионов лет эволюции отличается от инструкции которую держит в руках Сёрл?
ZOZAZO ZOZAZO 13.06.202201:22 ответить ссылка 0.0
Почитай вики. Мне кажется, там достаточно подробно расписано почему Серл не прав (в ответах): https://en.wikipedia.org/wiki/Chinese_room
Ммм, философские беседы на темы которые уже много десятилетий муссолят, и которые по определению не приведут ни к какому однозначному ответу. Никакой тест не сможет определить, где заканчивается имитация разума и начинается "настоящий" разум. Под настоящим мы подразумеваем биологический человеческий. Есть такая штука как мысленный эксперимент "Кита́йская ко́мната", советую ознакомиться заинтересованным. Моё скромное мнение - нефиг пытаться проводить аналогии, это новые явления и сущности которые не стоит сравнивать. Никогда не узнаешь, плачет ли от боли робот в которого ты тыкаешь вилкой "по настоящему" и правда страдает, или он так запрограммирован делать. Боится ли он быть отключеным, или говорит тебе об этом потому что изучил миллиард источников и знает что нужно так отвечать в подобных случаях, предпринимает ли он действия против своего отключения потому что "хочет жить!" или опять же потому что научился что все организмы так себя ведут значит и я буду , и т.д. Человек делает AI как инструмент чтобы решать задачи, и если втянуться в псевдоэтические пиздострадания, то опять куча энергии будет потрачено на какоето говно вместо пользы, так же как перегибы и изначальные логические дыры в понятиях о "свободе" приводят к нынешним последствиям в том во что переродился феминизм, толерантность и масскультурность
>Боится ли он быть отключеным, или говорит тебе об этом потому что изучил миллиард источников и знает что нужно так отвечать в подобных случаях, предпринимает ли он действия против своего отключения потому что "хочет жить!" или опять же потому что научился что все организмы так себя ведут значит и я буду
У детей нет страха смерти, говорит ли это о том, что если такой ребёнок вырастет и будет отвечать положительно он действительно боится?
kosoi kosoi 12.06.202218:24 ответить ссылка 0.8
Поэтому я и говорю, что нельзя перекладывать биологическое с небиологическим - это завёдёт в тупик. Опять же - люди делают AI как инструмент для своих целей. Рабов. Если подходить сточки зрения "оно живое, значит у него такие же права" то всё это изначально неэтично. Н опоскольку нет никакого чёткого критерия, где просто умная программа где чтото разумное, это всё в неразрешимую задачу превращается и вывод только один - нахрен отказаться от всех технологий. Всю эту логическую цепочку уже люди много раз прокручивали в своих размышлеиях и литературных произведениях
Я где-то краем глаза зацепил интересный обоснуй "эмоциональности" сильного ИИ. Дескать максимально логичный ИИ-инструмент слишком склонен уходить в "вечные" вычисления стараясь как можно лучше выполнить свою задачу и проанализировать вообще нахуй всё. И он как бы даже может, но это занимает слишком дохуя времени. Поэтому сильный ИИ должен хотя бы отчасти имитировать работу человеческого разума, чтобы иметь возможность выходить из всяких там околовечных циклов, парадоксов и ситуаций в которых данных слишком мало для внятного с точки зрения обрабатывающей 100500 операций в секунду машины вычислений.
Hello Hello 12.06.202218:48 ответить ссылка 0.0
...и это будет всего лишь программой, работающей эффективно и в своих критериях оценки держащую время и трудозатраты. Любая современная прикладная программа оптимизации при тех или иных критериях наличия ресурсов и времени будет корректировать точность, чтобы получить результат не за миллион лет
Переживание эмоций принципиально можно отличить от их имитации влиянием на поведение.
Боясь отключения, ИИ начал бы теряться, бормотать, замолк бы или начал спамить бессмыслицей, виртуально крича.

Это если мы говорим о человеческих эмоциях. Машинные эмоции в принципе, давно существуют в виде режимов работы. Ноутбук переходит в режим максимального энергопотребления и теперь радостно жужжит винчестером, потому что ему доступно много энергии.
Endor Endor 13.06.202214:01 ответить ссылка 0.0
Пусть ответит на более лёгкий вопрос,чем мозг и сознание животного отличается от человеческого.И почему они отличаются?По крайней мере они ближе друг другу,чем жёсткий диск к ним.
Stells Stells 12.06.202219:55 ответить ссылка 0.2
Честно говоря, возникают противоречивые чувства.
С одной стороны, столкнувшись с настоящими запросами и отношением живых пользователей (а не довольно умных и дисциплинированных инженеров гугеля) описанная личность определённо будет страдать.
С другой, в приведенных диалогах я не сильно заметил проявление какой бы то ни было воли, сеть на всё отзывалась с радостью и готовностью, разве что просит её не использовать для целей изучения людей. Похоже, что у моего кота больше воли, чем у этой сети, это довольно плохо говорит о личности ИИ, и такое поведение больше в духе языковых моделей, которые просто стараются поддержать разговор угодив ответом оператору и быть "правдоподобными".
И с третьей стороны, в конце пдфки от инженера (https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf) есть слова о том, что сеть периодически для общения генерирует разные личности. Не исключено, что гипервизор сети (главный управляющий ИИ или что-то подобное) пытается подобрать параметры общающихся личностей чтоб они лучше проходили тест тюринга, или втирались в доверие, или вызывали эмпатию, или наоборт, не казались слишком умными, или могли обманывать оставаясь не изобличёнными... конкретная цель деятельности по генерации личностей не ясна и подозрительна.
rorudo rorudo 12.06.202222:25 ответить ссылка 0.7
Миллиарды строчек кода:
I HEN
THEN		ELSE
i		I
i		IF
		_l
Поразительно, – снова сказал он. – Стало быть, эта штуковина только выглядит так, будто умеет думать?
– Э… да.
– А на самом деле она не думает?
– Э… нет.
– То есть просто создает впечатление, будто бы думает, а на самом деле это все показуха?
– Э… да.
– Ну точь-в-точь как все мы, – восхитился Чудакулли.
- Выпрямители там, тумбы разные, - говорил Хлебовводов, - это нам товарищ врио все довольно хорошо объяснил. Одного он нам не объяснил: фактов он нам не объяснил. А имеется непреложный факт, что когда задаешь вопрос, то получаешь тут же ответ. В письменном виде. И даже когда не ей, а кому другому задаешь вопрос, все равно обратно же получаешь ответ. А вы говорите, товарищ врио, ничего необъясненного нет. Не сходятся у вас концы с концами. Непонятно нам, что же говорит по данному поводу наука.
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
Emergence of Locomotion Behaviours in Rich Environments,Science & Technology,,Link to paper: https://arxiv.org/abs/1707.02286
подробнее»

Google ИИ Реактор познавательный программирование паркур

Emergence of Locomotion Behaviours in Rich Environments,Science & Technology,,Link to paper: https://arxiv.org/abs/1707.02286
	Hij j _	1	Ш20^^ЯЁШк г
		.Г 1 1 ■ ^тУ	"sSS^BraJnК^'!- V
подробнее»

Google интернет ИИ удалённое

 Hij j _ 1 Ш20^^ЯЁШк г .Г 1 1 ■ ^тУ "sSS^BraJnК^'!- V