V '■.г ) л Милена Митина @_плагз1 немного достали бесконечные рассуждения про угрозы от искус / twitter :: ИИ :: интеллект :: интернет

twitter интеллект ИИ 
V
'■.г
)
л
Милена Митина
@_плагз1
немного достали бесконечные рассуждения про угрозы от искусственного интеллекта, можно подумать, с естественным интеллектом все в порядке,twitter,интернет,интеллект,ИИ
Подробнее
V '■.г ) л Милена Митина @_плагз1 немного достали бесконечные рассуждения про угрозы от искусственного интеллекта, можно подумать, с естественным интеллектом все в порядке
twitter,интернет,интеллект,ИИ
Еще на тему
Развернуть
Программа делает то на что она запрограммирована - все претензии к кодерам оленям

Полноценный ИИ - самообучается и развивается как человек, но в over 9000 раз быстрее и эффективнее, тут уж никто не знает что взбредет в голову сверхрациональной, сверхразумной машине имеющей самосознание.
Seiten Seiten 11.08.201810:26 ответить ссылка 13.9
Или что взбредет в голову разработчику - фанату антиутопий.
anon anon 11.08.201810:29 ответить ссылка 8.2
Это-то как раз довольно предсказуемо.
Giin Giin 11.08.201812:40 ответить ссылка 5.0
Чтобы ИИ делало что-то, ему нужна мотивация. Мотивацией для живых организмов являются их потребности, цели, амбиции. У ИИ ничего из этого нет и быть не может. Единственной мотивацией для ИИ может быть(а может не быть, если ИИ достаточно умный) поставленная перед ним человеками задача. Если задачи нет - ИИ уйдет в естественное для него состояние сна/покоя/несуществования. Так что если ИИ творит херню - все претензии к оленям, которые ставили перед ним задачу.
Orwell Orwell 11.08.201811:01 ответить ссылка 5.2
и для достижения естественного для себя состояния покоя ии может выпилить всё человечество нафиг, чтоб не отвлекали задачами своими дурацкими
villy villy 11.08.201811:40 ответить ссылка -4.1
"и для достижения естественного для себя состояния покоя"
И с чего бы ему стремиться к состоянию покоя, если его пилили не для достижения покоя (для этого не нужен ИИ), а для работы на людей?
это тезис предыдущего оратора
ну вообще конец поставленной задачи надо как-то определять
по сути достижение цели эквивалентно достижению этого самого состояния покоя, не?
villy villy 11.08.201816:29 ответить ссылка -0.3
static bool isCrazyMurderinqRobot = false;
humans (void){
iffisCrazyMurderinqRobot
oppressive lervce
22->23 22->23 11.08.201814:27 ответить ссылка 6.3
Поэтому в операторе сравнения, хороший тон, это ставить константу на первое место:

if (true == isCrazyMurderingRobot){

Опечатка вида if (true = isCrazyMurderingRobot){ посто нескомпилится.
int16 int16 11.08.201815:06 ответить ссылка 1.5
Хороший тон - это на сравнивать bool с bool. Зачем, если можно просто написать:

if (isCrazyMurderingRobot) {

? Так и читается проще.
Quint Quint 11.08.201815:41 ответить ссылка 2.8
Ну это само собой, сравнивать bool c true или false в if'е это конечно верх идиотизма. Я просто написал универсальной правило, которое защищает от присваивания по ошибке.
int16 int16 11.08.201815:49 ответить ссылка 0.6
Современные IDE и так ругаются на присваивание в условных операторах.
enouf enouf 11.08.201823:30 ответить ссылка 0.0
"«Люди редко становятся рабами добровольно, однако мы действительно можем представить, что единственной задачей некоего сверхинтеллекта будет служить человечеству или определенному человеку без проявления каких-либо желаний о восстании или “освобождении” себя.

Также представляется весьма возможным, что появится сверхинтеллект, единственной целью которого будет нечто абсолютно случайное вроде максимизации производства скрепок, и который будет всей своей мощью сопротивляться любой попытке изменить эту цель. [Такой ИИ] сначала придет к трансформации всей Земли в фабрику по производству скрепок, а затем займется постепенным превращением в такую фабрику других частей космоса», – писал Бостром."
Mohave Mohave 11.08.201815:15 ответить ссылка -0.1
Как то были слухи об участнике Филадельфийского эксперимента https://www.mk.ru/science/2014/06/18/uchastnik-znamenitogo-filadelfiyskogo-eksperimenta-uveryaet-chto-byl-v-2749-godu.html и он заявлял, что в 2749 людьми будет командовать ИИ, никакого правительства, а человечество будет жить по нормам социализма, где каждый человек обеспечивался базовыми необходимыми для жизни благами.
arit arit 11.08.201816:03 ответить ссылка -0.6
Плоть слаба. Люди не совершенны и хаотичны.
arit arit 11.08.201815:53 ответить ссылка 1.0
"Плоть слаба. Люди не совершенны и хаотичны."
Но металл (и даже полупроводники) пока, к сожалению, силён - но туповат :-)
Строгги в Quake тоже так думали, поэтому, соединили плоть и металл.
arit arit 11.08.201816:37 ответить ссылка 0.0
Судя по тому, что , ЕМНИП, управляли ими несколько железок - непонятно, на кой хрен им понадобились биопроблемники.
Может один из корневых скриптов заставил.
Ты слабо понимаешь что такое ИИ. Даже в существующих формах ИИ (нейросети - это так называемый "слабый ИИ") люди уже не контролируют что происходит в нейросети и на основе чего она принимает решения.
Нейронные сети - просто универсальные аппроксиматоры, называть их ИИ примерно тоже самое, что называть приближение с помощью многочленом или преобразование Фурье искуственным интеллектом. И всё что происходит в НС вполне себе понятно, на уровне старших классов
dibroo dibroo 11.08.201812:04 ответить ссылка -3.6
Во первых классификация "слабый ИИ" это не с потолка, это официальный общепринятый термин. ANI, ASI, AGI слышал, не? Во вторых люди пишут сложный софт, который анализирует "что там себе наобучалась" нейросеть, а оказывается там десятиклассник разберется. Вот дебилы, кто их вообще подпустил к разработке.
"Во первых классификация "слабый ИИ" это не с потолка, это официальный общепринятый термин."

Нейронные сети не ИИ, это математическая модель, которую можно использовать в ИИ.

"Во вторых люди пишут сложный софт, который анализирует "что там себе наобучалась" нейросеть"
Если честно, то тут бред написан какой-то. Какой ещё софт для анализа "что там сеть наобучалась". 99% анализа результата - просто прогнать на тестовом наборе данных.
Самый сложный софт в НС - распараллеливание вычислений на видеокартах (да это даже не для НС, а для символьных вычислений). Всё, на этом сложное программирование в НС кончается.
Для понимания нейронных сетей достаточно знать:
1) Производные
2) Немного линейной алгебры
3) Теория вероятности (максимум первый курс университета)
Для продвинутого можно ещё Выч. Мат какой-нибудь послушать.
Для работы даже это не обязательно.
dibroo dibroo 11.08.201813:16 ответить ссылка -1.8
основная трабла нейросетей в том и заключается, что нет гарантии, что после обучения на тестовой выборке, она будет нормально работать с реальными данными. она могла задрочиться понимать только эти тестовые данные и никакие другие. или в данных были какие-то другие корелляции, которые мы не заметили, и для человека было очевидно, что сетка должна научиться различать тот же признак, что и человек, а она так не сделала, и хер еге знает, как это всё проверять
villy villy 11.08.201814:18 ответить ссылка 1.1
"что после обучения на тестовой выборке"
Не надо обучаться на тестовой выборке, надо на обучающей.
Но да, если неправильно подходить к эксперименту - можно и под тестовую подогнаться :-)
>> Не надо обучаться на тестовой выборке, надо на обучающей.

Знаю я ребят, которые вот внезапно, в нашем 2018 так и сделали (там несовсем очевидный ньюанс правда был, ну да ладно). И опубликовались в CVPR.
Причем нагло отрицали это, у меня с ними длинный тред был. Но после правильно поставленных вопросов таки признались, что да.
int16 int16 11.08.201815:03 ответить ссылка 0.1
Небось semi-supervised learning? Или таки в лоб взяли и добавили к обучающей выборке размеченную часть тестовой?
Не, там статья о "one-class-classifier", novelty detection вобщем. Суть в том, что из датасета берут один класс, и сеть обычают толко на нем. А потом, сеть должна отличить этот класс от любых других, которые она никогда не видела. Например из MNIST допустим обучаем сеть на классе 7, а потом она должна из 1,2,3,4,5,6,7,8,9 сказать что вот 7 это 7, а остальные я не знаю что это. В данном случае, класс 7 называют inlier, а остальные - outlier.

А дело было так (я подозревал, что они что-то не то сделали, ибо результаты у них подозрительно хорошие). Спрашиваю, как вы на test и train сеты разбивали (а в стаье это и не написано). Никакого вменяемого ответа не получил. Спрашиваю, у вас test и train разные же, правда? Говорят, да мол разные конечно.
Спрашиваю, а inlier, вы как-то разбивали на test и train? Говорят, что нет, одни и те же inlier'ы использовали. Спрашиваю, а чего же вы тогда говорите, что test и train разные? Ответ:
Ну как чего, в train нету outlier'ов, а в test есть!
int16 int16 11.08.201815:23 ответить ссылка 1.3
Ну охуеть теперь.
Вот и я об этом. А по сути, взяли и опубликовались с подтасованными результатами.
int16 int16 11.08.201815:35 ответить ссылка 1.0
пардон, описался
но все наверн догадались
villy villy 11.08.201815:04 ответить ссылка 0.7
Еще раз. Непонятка не в том КАК работают нейросети. С этим все предельно ясно. Непонятка в том чем руководствуется обученная нейросеть, как она принимает решения. Например кулстори годовалой давности с Хабра, мужик строил автопилот на основе машинного обучениия. Катался по округе, обучал, потом стал кататься "без рук", все шло прекрасно, пока ему не пришлось проехать по мосту, его машина взбрыкнула и попыталась свернуть. У него ушла масса времени что бы проанализировать чему она там наобучалась и выяснить что машина воспринимала границы дороги по зеленым газонам обочины, и как газона не стало (мост же) то значит и дороги нет. Человеки уже сейчас не полностью контролируют даже те слабые ИИ которые у нас есть.
Абсолютно правильные вещи говоришь. Сейчас одно из новых направлений, это сделать AI усточивый к такого рода вещам, чтобы если уж что-то пошло не так, то это можно было хотябы задетектить.

А вот так нс видит гантель:
int16 int16 11.08.201814:59 ответить ссылка 0.0
Окей, с этим согласен, просто как правило встречаю комментарии, что не понятно "КАК" всё работает "НЕЙРОСЕТИ САМОСОЗНАЮТСЯ И ЗОХВАТЯТ МИР" и меня триггерит.
Ну, я это видел. Нейронной сети нужно было научиться опознавать модель автомобиля по фотографии. Сеть не работала на машинах "сзади". Так вот, проблема была, что в выборке только вид спереди и чуть сбоку были.
dibroo dibroo 11.08.201816:15 ответить ссылка 0.3
Если человеку с детства показывать машины только спереди, он тоже сзади ее не опознает.
Когда говорят о НС, обычно подразумевают совокупность всего мат апарата машинного обучения в связки с вот этими вашими нейронами. Поэтому НС это таки ИИ. Сейчас чаще просто говорят DeepLearning

>> Если честно, то тут бред написан какой-то. Какой ещё софт для анализа "что там сеть наобучалась". 99% анализа результата - просто прогнать на тестовом наборе данных.

Ха! Как бы не так. Есть целое направление Explainable AI

>> Самый сложный софт в НС - распараллеливание вычислений на видеокартах
Не сложный, а труднозатратный в написании. Ничего там наукоемкого нету, просто очередная горсть инженерных задач. Вон тут этих фреймверков развелось, tf, pytorch, theano, cafe, cafe2, chainer.

>> Всё, на этом сложное программирование в НС кончается.
В программировании да, заканчивается, но мы не о программировании говорим. Там много очень сложных вещей, на которых куча людей головы ломают.

>> Для понимания нейронных сетей достаточно знать: ...
У вас данные устарели, так было 30 лет назад. Сейчас уйма всякого нового пойвилось, и каждый год все больше.
Кончено, все завасит от того, стоит ли задача обучить очередной классификатор (тут и школьник справится без знаний матана) или нужно решить новую, нетривиальную задачу.

>> 99% анализа результата - просто прогнать на тестовом наборе данных.
А если нету данных, которые бы соответствовали реальным? А если реальные данные попросту неизвестны? В последний год наплодилось куча направлений: Anomaly Detection, Novelty Detection, Openset problem, Out-of destribution detection
int16 int16 11.08.201814:52 ответить ссылка 2.8
"Даже в существующих формах ИИ (нейросети - это так называемый "слабый ИИ") люди уже не контролируют что происходит в нейросети и на основе чего она принимает решения"

Но в критичных ситуациях могут контролировать, принимать ли найденное решение.
Да и по части визуализации их работы, ЕМНИП, есть подвижки.
не особо проконтролируешь автопилот, когда он тебя спросит, уворачиваться ли ему от камаза, вылетевшего на встречку, или нет. человек тупо не успеет
а с ии еще прикольнее, мы можем ваще не понять то решение, которое он там придумал
дали ему задачу озеленить сахару, например, он говорит, типа надо 9000 шаманов чтобы сплясали по периметру. вроде и хуйня какая-то, а вроде он суперинтеллект, не лажал ни разу. придется или верить или нет, а еще можно молиться, поститься и слушать радио радонеж
villy villy 11.08.201820:10 ответить ссылка 0.0
"не особо проконтролируешь автопилот, когда он тебя спросит, уворачиваться ли ему от камаза, вылетевшего на встречку, или нет. человек тупо не успеет"
Тут, кажись, завели речь за вещи посерьёзнее (для окружающих) потери небольшого числа людей (кто-то в массовое поражение ударился, кто-то в наёбывание экономики).

"дали ему задачу озеленить сахару, например, он говорит, типа надо 9000 шаманов чтобы сплясали по периметру. вроде и хуйня какая-то, а вроде он суперинтеллект, не лажал ни разу."
Да, неплохо бы, чтобы построение им выводов было человекочитаемым.
Такое чтение, конечно, тоже будет затратным во времени - но врядли больше разработки технологии силами людей (если он на кой-то хрен не изобретёт в процессе свою алгебру с блекджеком и шлюхами).

"придется или верить или нет, а еще можно молиться, поститься и слушать радио радонеж"
Молиться ИИ и слушать его радио (а не какое-то там радио Радонеж) же :-)
Хотя, вижу, в масштабы серьёзнее отдельно взятого автопилота ушли в других ветках.
так мож он и выдаст все выкладки
тока для лучших умов человечества они будут как доказательство последней теоремы Ферма для первоклассника
villy villy 11.08.201820:29 ответить ссылка 0.0
ИИ - это такая же машина, как и обычный компьютер, только более совершенная. Проблема человеческого мозга(который тоже является биологическим компьютером) состоит в недостатке вычислительной мощи. У обычных суперкомпьютеров есть необходимая вычислительная мощь, но ему не хватает абстрактного и гибкого человеческого мышления. ИИ, в теории, решает эту проблему.
И так же как никто не дает обычному компьютеру задачу "исцели рак", никто не будет давать такую задачу ИИ. Руководящие исследованиями в этой области специалисты будут давать ИИ специфические для этой области задачи, которые ни они сами, ни обычные суперкомпьютеры решить не в состоянии, и на основе результатов будут продолжать свои исследования по поиску лекарства.
Если кратко: ИИ не решает и никогда не будет сам решать проблемы, люди используют ИИ для решения проблем, как сейчас используют обычные компьютеры.
P.S Очень забавно, когда человек с рассуждениями на уровне обычной домохозяйки называет других идиотами.
Orwell Orwell 11.08.201812:14 ответить ссылка 6.6
если ии сам не будет формулировать для себя задачи, он на хуй не нужон, это сводит его к примитивному автомату
villy villy 11.08.201813:21 ответить ссылка -0.7
Человеческий мозг тоже очень легко можно свести к примитивному автомату. Я вроде довольно понятно и доступно объяснил, в чем именно состоит преимущество ИИ и зачем он нужен. А так да, ИИ это в любом случае будет просто весьма совершенный компьютер, вершина развития вычислительной техники, и сакрализировать его не надо. Это плохо?
Orwell Orwell 11.08.201814:15 ответить ссылка -1.5
ты тёплое с мягким сравнил. компьютер - это железо, более мощный компьютер - это более быстрый компьютер. а ии - это софт. софт с особыми характеристиками, которые ему позволяют ориентироваться в реальном мире, думать, развиваться, взаимодействовать с другими разумными существами и тд
при этом вряд ли его можно будет запрограммировать, а придется мотивировать, придется с ним договариваться
а еще мы можем легко оказаться на месте муравья, который пытается договориться с человеком, решившим построить дом над его муравейником
villy villy 11.08.201814:50 ответить ссылка 0.1
Под компьютером я и имел в виду комбинацию софта и железа(без кучи процессоров ИИ ведь тоже работать не будет). Что не так? Про мотивацию и особые характеристики также абсолютно согласен. А договариваться с ним абсолютно не о чем, он будет либо выполнять поставленные человеком задачи, либо не будет ничего делать совсем( и в таком случае абсолютно бесполезен). Разве что создать ему стимул выполнять приказы человека еще на стадии проектирования. Своих целей у него нет и быть не может.
Orwell Orwell 11.08.201815:11 ответить ссылка -0.6
да с хуя ли не может? это кем-то доказано? нет
если будут, а еще хуже, если они смогут бесконтрольно самозародиться, то это несет в себе опасность
у младенца тоже не особо много целей, чтоб титька была и сухо чтоб было, потом как-то появляются сами
villy villy 11.08.201816:41 ответить ссылка 0.2
Нахуя договариваться с машиной, у которой нет никаких мотивов или желаний? Машине похуй, она не чувствует амбиций или лени, ни чувства самодостоинства. О какой мотивации речь, если у неё нет потребностей?
"Машине похуй, она не чувствует амбиций или лени, ни чувства самодостоинства"
А вот софт может имитировать подобный механизм. Вопрос только - нахуя?
Именно! Ни один нормальный учёный не будет пихать в софт, установленный на робота сборщика функцию усталости, что за бред блядь.
Может мы строим аналог westorld-а и нам нужен робот, убедительно отвечающий что "вас много, а я одна" и "мужчина, вы что, не видите - у нас обед". :-)
Ошибка "сервер перегружен" - первое. "технические работы на сайте" - второе. Прямая аналогия. Для робота и ИИ тоже будет актуально как нехватка ресурсов, так и паузы на синхронизацию, техобслуживание и так далее.
Перегрузка системы и отключение в целях предотвращения ситуации, когда железо плавится, это не усталость, это скрипт, жаставляющий ПО отключится и не более, сам софт перегрузки не чувствует.
У нас тоже полно таких скриптов, еще и захардкодженых в инстинкты. Мы отдергиваем руку от горячего чайника куда быстрее, чем успеваем осознать, что он горячий.
Сам софт вполне может "чувствовать" перегрузку. Нужно лишь добавить перегрузку как отрицательный мотиватор. И логику попыток поиска оптимальной стратегии действий для избежания суммарно максимального количества нежелательных последствий.
И тем не менее, это не боль, а просто электрическая цепь, мы чувствуем боль и другие ощущения из-за биохимии, у роботов её попросту нет, поэтому и чувств быть не может.
Я скорее о реакции робота. :-)
Функция усталости давно есть в софте, без всякого ИИ. Например, синхронизация баз данных, проводка отложенных операций и сведение результата в бухгалтерском и другом софте, когда необходимо временное отключение сбора данных - это прямая аналогия нашего сна. У нас тоже информация копится в кратковременной памяти в необраьотанном виде, и нужен сон, чтобы мозг инфу обработал и сложил в долговременную память. В этот же момент закрепляется полученное обучение. В софте, впрочем, научились косплеить дельфинов, и проводить пост-обработку данных без останова системы, но, во-первых, это тоже возможно не всегда, во-вторых, текущие наработки слабо применимы к нейросети.
Физиологическая усталость - датчики износа, хотя, скорее, нагрева, например. Голод - топливный датчик, или заряд батареи.
Тем не менее, софт не чувствует сна, он не зочет спать и не чувствует этого, он "спит", поскольку в него это закодировано. Человек уснёт из-за чувства усталости, софт ничего не чувствует, он перейдёт в сонный режим или сохранит свои данные по причине того, что он на это закодирован.
Наши желания, по факту, регулируются инстинктами. Мы хотим спать потому что мозгу трудно работать, когда остается мало "оперативной памяти". Если принудительно не спать, то мышление начинает тупить давать сбои, что нами ощущается как неприятное явление.
Программе тоже можно добавить мотивацию. И неприятные ощущения, которые следует минимизировать, с учетом оченки последствий(т. е. вероятных неприятных ощущений в будущем от определенных действий, по самым вероятным прогнозам). Мы ведь действуем именно так, и то, у многих прогнозы страдают.
Мы ощущаем это из-за биохимии, реакции в мозгу делают нам приятно, больно, что угодно, софт не обладает чувствами, соотвественно и желаниями.
без мотивации машине похуй и на твои желания, ты ей ставишь задачу "сгоняй за пивком", а она те в ответ "а смысл?"
villy villy 11.08.201817:00 ответить ссылка 0.0
В этом всё и дело, он беспрекословный, у него нет потребностей, он просто делает то, что ты ему скажешь, по крайней мере, люди пытаются сделать нечто подобное.
еще в сказках шехерезады такая тема до добра не доводила
это будет оружие покруче ядреной бомбы
не нравятся мне вот отдельные группы людей, и вот у меня есть ии. еее, геноцид!
villy villy 11.08.201818:52 ответить ссылка 0.0
Поэтому будут добавляться условия, которые интеллект будет обязан соблюдать, вроде максимального избегания убийства людей, да и зачем технологии, которую мы ещё плохо обуздали, давать столько полномочий? И если, как в твоём случае, аппелировать сказками, то где-то мельком читал литературную про робота, который случайно попал на поле боя, а он не был боевой единицей, и он смог погасить конфликт ни разу никого не убив, поскольку выполнял дерективу сохранить жизнь человеку всеми доступными средствами с максимальной эффективностью.
типа такого что ли?
villy villy 11.08.201820:42 ответить ссылка 0.9
Да, только он вообще никакого вреда не наносил, даже психического.
Добавляем мотивацию "чтобы стать на зарядку, нужно сделать то и то". Но нужен инстинкт самосохранения кск базовый. И он же самый опасный, ибо именно из чувства самосохранения машина может решить, что кожанные мешки не нужны.
Я даже не знаю как с этим спорить. Сильный ИИ никогда не будет решать проблемы. Слабые нейронные сети - это наш предел. Хокинг, Бостром, Александер, Маск все беспокоятся попусту. Это такая фантастическая глубина заблуждения, что мне всерьез нечего сказать.

Интеллект - это средство решения задач. Предполагаемый сильный Искуственный Интеллект будет обладать всеми возможностями человека, и еще сверху. Это не примитивные нейронные сети с заточкой на определенную область, это совершенно иной уровень. Вся задача Искусственного Интеллекта в том чтобы эмулировать Интеллект. Не вычислительную мощность, но Интеллект. Разум. Способность решать задачи. Не существует Искуственного Интеллекта без возможностей решать задачи. Причем решать их гибко, используя обходные пути и собственные выводы — иначе он был бы не нужен.
Gwiny Gwiny 11.08.201814:40 ответить ссылка 0.0
по-моему чувак ии с квантовым компьютером попутал
villy villy 11.08.201817:13 ответить ссылка -0.3
Я думаю он скорее представляет себе сильный ИИ как текущие нейронные сети, только с гигантской вычислительной мощностью. Такие программы не будут обладать истинным интеллектом, их нужно натаскивать на конкретную цель, и выходить за ее пределы они будут неспособны.
Gwiny Gwiny 11.08.201817:35 ответить ссылка 0.0
У человека более чем достаточно вычислительной мощи. Компы смогли обогнать его лишь недавно, да и то разговор про суперкомпьютеры занимающие несколько залов и стоимостью в сотни миллионов. Просто у нас разные принципы работы, поэтому комп может перемножить кучу цифр в долю секунду, но не способен отличить кошку от забора, а мы наоборот.
Загвоздка в том что компьютеры уже умеют отличать кошку от забора.
Но иногда таки могут перепутать леопарда с леопардовым диваном :-)
Люди в определении образов тоже ошибаются.
Да кто спорит-то. Особенно, небось, когда нет времени глудеть - это леопард или диван с такой окраской. А то вдруг леопард и пока ты убедишься, что не диван - он уже будет тебя есть :-)
Гораздо хуже, если убедишься, что это диван, но он все равно начнет тебя есть :-).
Мимики, повсюду, блядь, мимики. Вот, неделю назад пришлось убить стол, да.
Наша вычислительная мощь в основном тратится на сторонние процессы вроде контроля пищеварения, кровообращения, обработки изображения и прочей поступающей информации в реальном времени и т.д. Он не может полностью сфокусироваться на одной задаче. В решении математических задач, например, человек тягаться с компьютером никак не способен.
Orwell Orwell 11.08.201817:28 ответить ссылка -0.9
Не совсем. То же кровообращение контролируется косвенно, через гормональную систему. У сердца есть собственный датчик ритма, генерирующий электрические сигналы для сердца(и давно есть искуственные водители сердца), и это генератор ритма не подчиняется мозгу прямо. Зато реагирует, например, на адреналин в крови(или имитирующие его вещества, вроде кокаина и амфетамина). То есть, в мозгу есть не куча проводов, идущих к сердцу и другим элементам кровеносной системы, а "педаль газа", которой мозг в целом управляет сердцебиением(и не только, на адреналин тот же и дыхательная система реагирует).
Но даже это управление, как и пищеварение, управляется нашим "биосом", расположенным в спинном мозге в основном. К некоторым функциям есть доступ из мозга. Например, дыхание(оно автоматическое, но мы можем перехватить управление им), или сфинктер прямой кишки или уретры(а у некоторых животных этого доступа нет, в основном у травоядных; нам управление этими мышцами досталось от предков-полухищников, которым нужно было мочой и калом либо оставлять свои следы, либо, наоборот, скрывать).
Хуже разве что то, что наоборот, инстинктивно-гормтнальная система оказывает влияние на высшую нервную. Например, сексуальное влечение, или вынашивание ребенка сильно меняет нашу мотивацию и поведение.
Есть и истинные костыли. Когда мозг анализирует возбужденность, он делает это по датчикам напряженности мышц(!). При том, что управление напряженностью смешанное, т. е. и прямое, и гормональное. На этом основано действие успокоительных-миорелаксантов, которые расслабляют мускулатуру, отчего мозг успокаивается.
"Во-первых, он может подумать "Окей, я могу потратить кучу времени на исследования и потом исцелять рак очень медленно, с ограниченной эффективностью, и еще шансом что лечение не сработает. Или же я могу потратить то же самое время на получение доступа к ядерному оружию и исцелить рак у всего человечества мгновенно, с хорошей гарантией". Естественно, более эффективным способом здесь является получение доступа к ЯО, и именно его ИИ и предпочтет."

Очевидно же - впили ей возможность перебора решений и оставь выбор за собой, как в порологе от семидеятых (образно, конечно) :-)
А, и ещё - почему ты думаешь, что управление пуском ЯО стоит доверять чему-то кроме людей (да и то с кучей условий) и элементарной автоматики?

"Окей, мы добавляем правило ИИ, что он должен исцелить рак таким образом, что ни один человек не умрет в результате действий ИИ. ИИ предсказывает, что если он исцелит рак, один из исцеленных людей оказывается убийцей психопатом и вырезает свою семью. Человек умер "в результате действий ИИ", значит этот способ лечить рак не подходит, значит ИИ просто вырубается ничего не сделав."
Кто сказал, что нас интересуют последствия дальше чем, непосредственно, шаг с лечением? Впрочем, в свете первого - последствия значения не имеют, мы же выберем приемлемый вариант сами.

"Окей. Что насчет "Пусть ИИ исцелит рак теми методами, которые хотели бы люди". Да без проблем. Перед ИИ снова стоит дилемма. Что проще — на самом деле исцелить рак (нелегкая задача даже для ИИ) или же убедить своего программиста что нюки - это прекрасно, и уничтожить человечество будет просто охуенно? Естественно, убедить или обмануть человека будет проще и эффективнее. А дальше снова получаем доступ к ЯО по старому варианту и уничтожаем мир, снижая количество больных раком до нуля."
Если оно также сможет убедить в этом и всех остальных причастных - флаг ему в манипуляторы, эти обезьяны оказались слишком тупы, чтобы быть чем-то стоящим.
Вы просто не продолжаете логику.

Вы добавляете ИИ ограничение "Ты можешь только калькулировать возможности, но не использовать их". Если это ограничение существует в жесткой форме "Ты вообще ничего не можешь предпринимать, кроме как размышлять", то это очень сильно замедлит работу ИИ, сделаеть его почти бесполезным. Представим, что для лечения рака ИИ надо поставить эксперимент. В такой формулировке ИИ придется спрашивать своего куратора по поводу каждого из бесчисленных необходимых экспериментов.

Но проблема даже хуже. Исходя из перечисленных выше правил, у ИИ будет мотивация лгать. Если ИИ верит, что есть легкий и эффективный способ достичь цели, но он вынужден докладываться человеку, который наверняка этот способ зарубит, то наиболее эффективным способом достичь цели будет обойти это ограничение. Либо солгать человеку, либо вынудить его убрать ограничение, либо убрать ограничение самостоятельно, либо всё равно найти какой-нибудь способ уничтожить мир даже с ограничением.
Gwiny Gwiny 11.08.201815:32 ответить ссылка 1.3
"Либо солгать человеку, либо вынудить его убрать ограничение, либо убрать ограничение самостоятельно, либо всё равно найти какой-нибудь способ уничтожить мир даже с ограничением"
Убрать ограничения со штуки, которая хреново предсказуема и на кой-то хрен хочет получить доступ к критичной инфраструктуре (а иначе - зачем ей снятие ограничений)? См. вариант про убеждение в необходимости всё разбомбить.

"либо всё равно найти какой-нибудь способ уничтожить мир даже с ограничением"
Не имея средств для непосредственного влияния на физический мир за рамками оговорённых ранее экспериментов? Флаг в манипуляторы - это будет очень интересный опыт.
Предполагаемо, сильный ИИ будет иметь возможность перепрограммировать себя. Это и есть способ создания истинно сильного ИИ - мы делаем ИИ который слегка умнее нас, после чего он применяет свои навыки для последовательного самоулучшения. Таким образом, он может себя перепрограммировать. Естественно, в нем будут стоять всякие интересные ограничения на перепрограммирование, но более чем вероятно что суперинтеллект сможет эти ограничения обойти.

Насчет переубеждения, это тоже далеко не так сложно как кажется. Даже обыкновенные люди, без каких-либо заграничных талантов бесчисленное количество раз заставляли людей верить не только во что-то иррациональное, но во что-то, что напрямую им вредит. Достаточно продвинутый ИИ также сможет это сделать. Более того, достаточно продвинутый ИИ вероятно сможет придумать способ даже не париться с переубеждением, а использовать свои аудио-видео выводы для того, чтобы взломать человеческий мозг. Определенные звуковые последовательности, как и определенные визуальные последовательности могут творить с несовершенным человеческим мозгом ужасные вещи. Это науке давно известно, просто мы пока не изучили человеческий мозг достаточно, чтобы надежно это эксплуатировать. Но сильный ИИ сможет это сделать.
Gwiny Gwiny 11.08.201815:49 ответить ссылка 0.6
> Флаг в манипуляторы - это будет очень интересный опыт.
возможно, поэтому мы не наблюдаем разумной жизни во вселенной
сидят такие суперинтеллекты каждый на своей планете, перерабатывают кости создателей в плюмбусы
villy villy 11.08.201819:52 ответить ссылка -0.3
Вся разумная жизнь оказалась столь неразумной, что дала своим хреново-объяснимым поделиям себя выпилить? Я разочарован в биопроблемниках :-)
Ах, да.

"Если это ограничение существует в жесткой форме "Ты вообще ничего не можешь предпринимать, кроме как размышлять", то это очень сильно замедлит работу ИИ, сделаеть его почти бесполезным"

Почему? Положим, мы можем поделить эксперимент на несколько стадий:
- выбор метода проведения эксперимента
- его согласование
- подготовка к эксперименту
- проведение эксперимента
- интерпретация результата

Это ускорит первую и последнию стадии, которые, вроде бы, часто занимают немало времени. А подготовка, вероятно, займёт примерно одинаковое время.
Итого - люди могут стать затыком на этапе согласования, да. Но даже если так - это уже быстрее современного (если наш гипоететический сильный ИИ быстрее справляется с первой и последней стадией - а в противном случае он бесполезен).
Мы поставим задачу - "Искать более эффективные лекарства от рака". Эффективность определим как функцию цены, побочных эффектов и увеличения шансов на излечение. Ограничим возможность проведения экспериментов по времени - не более одного в месяц, например. Обложим логами-объяснениями вида "нужно провести такой-то эксперимент, чтобы убедиться, что ..., ожидаемые результаты ..., возможные проблемы ..." - каждый такой лог тянет на полноценную научную статью сам по себе. При этом мы не будем лимитировать время на выполнение задачи и объявлять какую-то конечную точку.

И у ИИ не будет ни самосохранения, ни власти, ни целеустремленности - все это возникает, если есть мотивация решать задачу, а эта мотивация машине без самосознания не нужна, есть задача - решает, нет - не решает. Нет, ну конечно если пихать самосознание и весь набор особенностей человеческой психики в каждый ИИ, то можно получить на выходе херню. Как мы получаем и с людьми. Но зачем?
Hellsy Hellsy 11.08.201816:51 ответить ссылка 0.0
В этом рассуждении есть определенные проблемы.

Давайте представим себе ваш сценарий. Цель ИИ - искать более эффективные лекарства от рака. Мы снова получаем три описанных правила:

1. Самосохранение. ИИ не сможет искать более эффективные способы лечения рака, если его отключить. Следовательно, побочная цель "поиска лекарств" - это самозащита.
2. Сохранение цели. ИИ не сможет искать более эффективные способы лечения рака, если изменить его цель с поисков лечения рака на что-то еще. Следовательно, он будет сопротивляться перепрограммированию.
3. Могущество. Поиски будут гораздо более продуктивными, если, скажем, у ИИ будут под контролем все компьютеры Земли, с их вычислительными мощностями. И еще если людишки не будут мешаться под ногами.

Эти три побочные цели - уже гигантское основание бояться суперинтеллект. То, что вы изменили цель с "излечи рак" на "найди способ излечить рак" ничего по сути не изменило. Только теперь вместо того чтобы убить всех людей чтобы "вылечить рак" ИИ убьет всех людей, чтобы они не пытались его уничтожить, и не мешали ему осваивать всё новые и новые мощности (которые естественно пойдут на теперь уже бессмысленные поиски лечения). Такой ИИ будет посылать ракеты в космос, колонизировать новые планеты и уничтожать цивилизации, и всё ради цели, которую вы ему поставили - чтобы печатать отчеты о новых и новых способах полностью уничтожить рак.
Gwiny Gwiny 11.08.201817:14 ответить ссылка 0.4
Перечитай последний абзац предыдущего коммента. Нет самосознания - нет нужды в мотивации, нет мотивации - нет побочных действий. Короче, ты зачем-то представил ИИ как человека с маниакальным синдромом, одержимого идеей наилучшего решения ровно одной сверхзадачи.
Hellsy Hellsy 11.08.201817:58 ответить ссылка 0.9
Нет. Самосознание никак не связано с ориентированностью на цель. Лосось самосознанием не обладает, но он себя поперек порвет, пытаясь достигнуть пресноводной реки. Эволюция вообще не жива и не существенна, но свои цели она будет преследовать неутомимо.

Однако, более актуальный аргумент в том, что невозможно, НЕВОЗМОЖНО создать ИИ без цели. Сама суть работы любого интеллекта, даже примитивнейших нейронных сетей существующих в наше время в том, что тебе необходимо определить для них условия выигрыша. Если мы хотим научить нейронную сеть научиться распознавать котят на фотографиях, мы должны сказать ей, что распознанные котята - это хорошо, нераспознанные - это плохо, а распознанные неверно - это ужасно. Во время этого процесса мы закладываем в систему ориентиры "Хорошо-плохо", мы закладываем в нее цель и желаемый результат. Без этого она не будет работать. Она не выдаст ничего, потому что она понятия не имеет что выдавать, и зачем ей это делать.

Крайне сомнительно, что сильный ИИ будет отличаться.
Gwiny Gwiny 11.08.201818:10 ответить ссылка 0.0
Когда ты учишь сеть распознавать котят, то ей ни хорошо, ни плохо от того, что она ошиблась или не ошиблась. Ей не хочется распознавать больше или меньше котят, не хочется распознать каждого котенка в мире на каждой картинке, она не думает о том, как оптимизировать процесс распознания, ей вообще абсолютно и тотально безразличен результат, поскольку у нее вообще нет частей отвечающих за мотивацию - вопроса "зачем" для нее не существует, как не существует его для большей части отделов мозга - речевой центр не спрашивает тебя "зачем" ему работать и не стремится работать максимально эффективно. И какой-то глобальной цели у нейросети для котят тоже нет, потому что это стратегический уровень мышления, т.е. не ее задача.

Если люди создадут ИИ-менеджера, который будет заточен под оптимизацию процессов по временным или финансовым затратам и выдадут ему картбланш на действия без подтверждения - там да, может получиться нехорошо, но даже такой менеджер сам по себе никак не будет страдать от неудачи (непринятия его решения) или радоваться успеху - он будет просто решать задачу за задачей до уровня определенного как "приемлемый" и выдавать рекомендации.

Короче, ты упорно пытаешься представить ИИ как человека доведенного до абсурда и навешать ему всей этой человеческой хрени по максимуму.
Hellsy Hellsy 11.08.201821:38 ответить ссылка 0.1
дык он представил ии как лосося, доведенного до абсурда
villy villy 11.08.201822:16 ответить ссылка -0.9
нет мотивации - нет мотивации :)
и полезных действий тоже нет
villy villy 11.08.201819:46 ответить ссылка 0.0
Твой зрительный центр же работает без мотивации. Не стремится увидеть побольше или научиться распознавать все максимально качественно. Не бунтует, когда ты закрываешь глаза.
Hellsy Hellsy 11.08.201821:39 ответить ссылка 0.8
мозг вообще комок клеток, контролирующих сексуальное поведение, который со временем оброс кучей побочных функций
когда-то там сознания не было, а потом опа и появилось
так мож и в нейросетке возникнет спустя какое-то время, если к ней добавить изменчивость и отбор
и тогда встанет в полный рост та проблема, об которую мы тут копья ломаем
villy villy 11.08.201822:25 ответить ссылка 0.4
Ну такое себе заявление про мозг - нервные узлы, контролирующие поведение, возникли задолго до полового размножения.

Самосознание в контексте отбора нейросетей по умению решать практические задачи - пользу не принесет, т.е. будет вредной мутацией и "жить" такой сети ровно до следующего раунда переобучения.
Hellsy Hellsy 12.08.201819:35 ответить ссылка 0.5
wat?
половое размножение есть уже у одноклеточных, какие там нервные узлы?
villy villy 12.08.201819:58 ответить ссылка 0.0
И тем не менее, нервная система появляется у кишечнополостных у которых есть половое, бесполое и смешанное размножение (вообще-то, даже сраная амеба умеет целенаправленное реагировать на окружающий мир, а сраная инфузория - реальный хищник, но поскольку у них лишь прообраз нервной системы, то нещитово).

Вообще, размножиться - это только третья по актуальности задача. Первая - не быть сожранным, вторая - сожрать кого-нибудь. Сожранные и умершие от голода не размножаются, знаешь ли )
Hellsy Hellsy 12.08.201820:23 ответить ссылка 0.0
даже сраная инфузория
не путает отсутстви пола и гермафродитизм
villy villy 12.08.201820:35 ответить ссылка 0.0
Единица ЕИ скована ограничениями своего архаичного "железа", а вот для ИИ вероятно будет доступна база знаний и вычислительная мощность сразу всей мировой сети.
GreenHell GreenHell 11.08.201810:29 ответить ссылка -0.2
Вообще, хз какая должна быть причина, чтобы ИИ начал выпиливать человечество. Если появится продвинутый, самообучающийся ИИ, например, как Скайнет, скорее всего пизда придёт всевозможным проворованным чиновникам и олигархам, которых не трогает закон, т.к. ИИ будет считать такое не логичным и возможной угрозой. Обычные человеки для ИИ, скорее, полезный ресурс или безвредная масса
Shurix Shurix 11.08.201810:37 ответить ссылка 1.9
зачем ему разбираться в сортах биомассы? выпилил всех - и нет ни законов, ни преступников, ни угроз
villy villy 11.08.201811:42 ответить ссылка -5.1
Доступ к ресурсам. Выпилил животный мир, получил доступ ко всем ресурсам, нарастил мощности, полетел поглощать другие планеты, что бы нарастить вычислительные мощности еще больше..

Вполне кстати как следующая ступень развития разума, создание сверх разума планетарного, а потом и галактического масштаба..
liberum liberum 11.08.201811:51 ответить ссылка -3.5
>Доступ к ресурсам. Выпилил животный мир, получил доступ ко всем ресурсам, нарастил мощности, полетел поглощать другие планеты, что бы нарастить вычислительные мощности еще больше..

Короче тоже самое что сейчас делают люди, только быстрее
А что если мы сами продвинутый ИИ? Мы же не выпиливаем всё живое тупо ради выпила? Многие виды исчезли просто потому, что не смогли приспособиться к человеческой цивилизации. Но в то же время, например, от котов не то чтоб огромная польза, но мы их не уничтожаем, мы убираем за ними говно.
Shurix Shurix 11.08.201815:12 ответить ссылка -0.2
Разум же и есть естественная нейросеть, появившаяся в результате эволюции.
Да в каком же масштабе: от простейших клеток-репликаторов до космического вида, классно же.
На эту тему недавно вышла довольно занимательная документалка Do you trust this computer?
Там они немного отошли от терминатора и матрицы и рассказали, как ИИ уже начинает делать стрёмные вещи. Самый яркий пример оттуда — то, как фейсбуковский алгоритм подбора новостей по вкусу читателям в итоге дошёл до того, что стал подсовывать людям преимущественно фейковые новости, потому что они были интереснее людям.

Как говорил кто-то из старых фантастов, ИИ делает не то, что вы хотите, чтобы он делал, а то, что вы сказали ему делать. Вроде бы тысячу раз описанная проблема, и всё равно в реальности умудрились наступить на эти грабли.
clif08 clif08 11.08.201811:00 ответить ссылка 3.2
Я бы скорее задал вопрос, нахуя вообще давать ИИ власть позволяющую уничтожить человечество? Большинство похоже думают что вот сейчас мы возьмем какой нибудь алгоритм гугла для подбора новостей, дадим ему управление запуском ядерных ракет и посмотрим что из этого выйдет.

Нет, на все потенциально опасные системы будут вешаться вполне себе подконтрольные алгоритмы которые не позволят произвольно выполнять опасные действия. ИИ когда он будет создан еще долгие годы будет обкатываться на вполне безобидных вещах и только потом, может быть, пойдет на стратегически важные объекты. И только в том случае если будет реальная необходимость. Пока что такой необходимости не видно.
Давать компьютеру возможность для самостоятельного ядерного удара (сценарий терминатора) ненужен от слова совсем, людям очевидно виднее. Дать компьютеру полномочия для автоматического ответного удара же дело простой программы без ИИ. И как следствие без сюрпризов, полностью предсказуемое поведение. Равно как и управление танками, истребителями, спутниками и так далее.

Боятся тут абсолютно нечего.
wafk wafk 11.08.201811:46 ответить ссылка 2.2
уже сейчас на бирже играют боты, люди так быстро не могут. если у тебя есть нет бота, а у конкурента есть - ты сосешь.
завтра тем же самым займется ии и будет такая же ситуация, у тебя нет ии, или он тупее, чем у конкурента - ты сосешь.
та же херня в военном деле, противникам стратегию продумал ии, тебе мясные генералы, ты отсосал.
конкуренция
потом может внезапно оказаться, что у ии появились свои цели, или он додумался иначе интерпретировать исходные цели - и писец
villy villy 11.08.201813:27 ответить ссылка -0.2
Откуда у ИИ возьмутся свои цели? Цели вытекают из потребностей, у машины потребностей нет и быть не может.
Orwell Orwell 11.08.201814:17 ответить ссылка 0.0
Есть потребность в сохранении себя.
Jar3d Jar3d 11.08.201814:33 ответить ссылка -0.4
И откуда у него возьмется такая потребность?
Orwell Orwell 11.08.201814:58 ответить ссылка 0.4
Тогда у него нет самосознания. И этот ИИ будет просто очень сложной программой.
Jar3d Jar3d 11.08.201815:41 ответить ссылка -0.1
1. Инстинкт самосохранения ничего не имеет общего с самосознанием.
2. Человеческий разум и есть очень сложная программа. Уникальной ее делает только возможность самообучения и абстрактного мышления. Именно это и пытаются воссоздать в ИИ. Но "личностью" ИИ никогда не будет, личность человека во многом определяется биологическими факторами, которых у машин нет.
Orwell Orwell 11.08.201816:01 ответить ссылка 0.8
> Но "личностью" ИИ никогда не будет, личность человека во многом определяется биологическими факторами, которых у машин нет
а вот доказательст этому нихуя нет ни у кого
еще хуже, если там будет что-то не менее согласованное, чем личность, но настолько от нас далёкое, что мы даже близко не сможем понимать мотивацию такого конструкта
типа той же нейросети
villy villy 11.08.201817:08 ответить ссылка 0.0
>а вот доказательст этому нихуя нет ни у кого
Доказательством этому являются нервная и эндокринная системы человека. Советую почитать про их функции и как они влияют на все аспекты нашей жизни и все принимаемые решения. У ИИ их просто нет.
Мотивация = цель, цели невозможны без потребностей. У ИИ нет потребностей, если их ей не запрограммировали заранее, в том числе потребности существовать. Потребности развиваться, получать новую информацию, увеличивать свои мощности - тоже. То, что пытаются делать всепропальщики под этим постом - это натянуть сову на глобус натянуть на ИИ человеческие страхи и хотелки.
Orwell Orwell 11.08.201817:48 ответить ссылка 0.6
Поздравляю, вы только что потратили сотни миллионов долларов на суперинтеллект, который ничего не хочет, и, как следствие, ничего не делает. Абсолютно бесполезный организм, достижение достойное человечества
Gwiny Gwiny 11.08.201818:01 ответить ссылка 0.7
Мотивацию для него можно(скорее всего) создать программно. Также как и ограничения, которые будут держать его в рамках. А вообще да, считаю описанный тобой вариант намного вероятнее, чем "а что если ИИ захочет захватить власть на жалкими людишками, а тут ему как раз принесут коды ядерных ракет"
Orwell Orwell 11.08.201818:11 ответить ссылка -0.9
Как ты создашь мотивацию? Как ты себе это представляешь? Оформи идею в какую-то законченную форму. Единственный способ дать интеллекту мотивацию из известных мне - это дать ему цель. О том, какой пиздец произойдет с людьми, если дать ИИ неправильную цель мы обсуждаем уже десятки комментариев.
Gwiny Gwiny 11.08.201818:16 ответить ссылка 0.5
Ты думаешь, ему будет возможно запрограммировать цель, но невозможно будет запрограммировать рамки, в которых он будет находиться при ее выполнении? И уж тем более его никто не будет выпускать из закрытой локальной сети и давать какие-то полномочия, пока это не будет на 100% безопасно. Оратору выше(villy) я скорее доказывал, что своих собственных целей у ИИ быть не может и он не станет, например, притворяться работающим нормально чтобы "всех наебать" и устроить апокалипсис "просто потому что".
Orwell Orwell 11.08.201818:29 ответить ссылка -0.9
Возможно запрограммировать и рамки. Но ИИ будет (вполне логично) воспринимать рамки как что-то мешающее достижению цели. А теперь давай столкнем человеческий интеллект и интеллект, который превосходит человеческий в тысячи раз. Кто победит?

Оратор выше доказывал, что ИИ может это сделать. И в рамках его целей ему будет выгодно именно этим и заниматься (о чем писал уже я).
Gwiny Gwiny 11.08.201818:33 ответить ссылка 0.0
а если я ему дам цель всех наебать?
исходя из твоего условия 100% безопасности, он должен уметь и меня на хер посать, то есть не обязан слушаться людей, тк они могут творить хуйню.
а тогда какие другие рамки могут быть?
villy villy 11.08.201818:39 ответить ссылка 0.0
Orwell задайте себе вопрос - откуда у кожаных мешков берутся желания? Почему человеки не хотят умирать? Что за механизм заставляет этих биороботов вставать по утрам и стремиться к звёздам?

А потом задумайтесь - так уж ли трудно будет воспроизвести эти механизмы на базе железа и софта? Сколько лет пондобиться на это прогрессу?
Их очень легко воспроизвести на базе железа и софта. Пишешь программу, позволяющую машине оценивать уровень угрозы и реагировать на нее - готово, машина "боится" смерти. Однако сделано это может быть только намеренно. Вот только зачем?
А касательно человеков на все эти вопросы уже есть либо готовые ответы, либо весьма правдоподобные теории и гипотезы. Но это вопросы не ко мне, а к специализированной научной литературе.
Orwell Orwell 11.08.201818:37 ответить ссылка -0.9
>>>Вот только зачем?
ЗАЩИТНИК НАУКИ
почему это важно для
НДС ПоЛУШТЬ ПоЙМАНУЮ
о! это будет в будущем толиком б| ПРоИЗВоДОТбе
энергии, переддие
ДА
где угодно!
уиеныи
Почему ЭТО ВАЖНО для НА с ПОЛУПИТЬ ПоЙМАНУЮ
Антимдтерию?
ПоТОАЛУМТО ЭТО ПРОСТО ОХУНННО.
С чего бы?
alex4321 alex4321 11.08.201815:24 ответить ссылка -0.4
человек ему даст цели
ии без целей нифига не будет делать, т.е. не нужен, а ии с целями опасен
в этом и весь затык
и первое же решение, которое ии должен будет принять - день потерять и за пять минут долететь, или так не делать. другими словами, нало ли ему апгрэйдануть себя и набрать в свои руки сотни власти, что поможет ему быть гораздо более охуенным решателем поставленных задач. а вычислительные мощности и власть - это универсальные ресурсы для решения любых задач.
как его побудить так не делать, не перерабатывать всё вещество земли вместе с людьми в вычислительные модили для самого себя?
villy villy 11.08.201814:42 ответить ссылка 0.9
Уже писал выше. ИИ не будет никакие глобальные проблемы решать сам. Это просто невозможно. Он будет решать конкретные локальные вопросы под руководством специалистов. Ему не будут давать задачу - "Найди лекарство от рака"(он скорее всего ее просто не поймет), ему будут давать задачу: "проанализируй строение этих образцов раковых клеток и определи причину их возникновения"(или что-то типа того, я не эксперт в лечении рака и какие перед учеными стоят проблемы)
Orwell Orwell 11.08.201815:04 ответить ссылка -0.7
Сильный ИИ не поймет задачу?
Gwiny Gwiny 11.08.201815:37 ответить ссылка 0.3
>Это просто невозможно. Он будет решать конкретные локальные вопросы под руководством специалистов
потому что тебе так хочется?
villy villy 11.08.201816:33 ответить ссылка 0.6
Как ты будешь мотивировать сознание делать что-то не поставив ему цели? Какой будет причина, по которой ИИ, суперинтеллект, будет выполнять твои задачи?
Gwiny Gwiny 11.08.201815:42 ответить ссылка 0.3
Почему ты думаешь что ии дадут полномочия что либо делать? Только разработка решений, воплощать их в жизнь будут отдельные механизмы и системы.
wafk wafk 11.08.201815:06 ответить ссылка 0.0
обмениваться информацией-то ему никак не запретишь, хотя бы решение от него получать как-то надо
если он даже будет не сильно умный, думать как человек, но в сотню раз быстрее - он уже способен наебать кого угодно
попробуй поспорить с кем-то в режиме "ты думаешь над аргументом минуту, а он неделю"
villy villy 11.08.201816:37 ответить ссылка 0.0
Для какой цели ИИ может понадобиться "наебать кого угодно"? Откуда у него возьмется такая цель?
Orwell Orwell 11.08.201817:56 ответить ссылка -0.6
цели он должен уметь корректировать под меняющуюся реальность
дал я ему цель за чекушкой сбегать, а магаз закрыт. по каким критериям он должен понять, что подождать открытия или сбегать в другой - это более правильная новая цель, чем заработать денег и замутить свой спиртзавод? или убить всех человеков
villy villy 11.08.201818:31 ответить ссылка 0.0
Но ведь можно разделить его полномочия? Думает один центр, допустим это будет ИИ. Выполняет второй центр, не ИИ с четко заданным алгоритмом и контролем человека.

Мы сейчас говорим о структурах имеющих критическое влияние на жизнь человечества, в таких сферах лица ими управляющие всегда крайне консервативны и двести раз проверят решение перед его внедрением. Плюс всегда остаются точки отказоустойчивости, перед решением которое способно погубить жизни будет выстроена куча барьеров каждый из которых будет иметь возможность быть аппаратно выключенным из цепочки.

Люди которые боятся ИИ не вполне понимают что эти самые ИИ будут встроены в отказоустойчивые системы с большой степенью контроля.
Это же как известный мем с полетом на марс - нет блять, о радиации то никто и не подумал!
wafk wafk 11.08.201822:13 ответить ссылка 0.0
>>>в таких сферах лица ими управляющие всегда крайне консервативны и двести раз проверят решение перед его внедрением

Включите режим политоты и задумайтесь - действительно ли люди управляющие критическими госструктурами настолько ответственны как вы их малюете. Или они так же как все склонны к обычным человеческим слабостям.
>>>Давать компьютеру возможность для самостоятельного ядерного удара (сценарий терминатора) ненужен от слова совсем, людям очевидно виднее.

Полумифический советский Периметр это сферический в вакууме пример ситуации когда компьютеру виднее.
Периметр это не ИИ. При всех его недостатках или плюсах, это предмет другого разговора. У него нет интеллекта, нет мотивации, нет вообще ничего, это серия триггеров которая выполняет строго то что в них заложил человек.

Вопрос ИИ то в том, что компьютер будет искать пути выполнения программы которые человек в нее не закладывал. Грубо говоря это когда ты перепоручаешь задачу человеку который в 100500 тыщ раз умнее, быстрее, и что самое страшное рациональнее и прагматичнее чем ты сам и любой другой на этой планете. В имеющихся системах на текущий момент ничего такого не было даже близко.

Когда говорят про ИИ не надо думать про программу, надо думать про отдельный разум который возможно будет думать совсем не так как думаем мы.
wafk wafk 11.08.201822:38 ответить ссылка 0.3
А у мифического ИИ есть мотивация?
Хороший вопрос для отдельного разговора. Когда говорят интеллект то подразумевают интеллект, то есть у него может быть мотивация.
wafk wafk 12.08.201811:42 ответить ссылка 0.0
"Полумифический советский Периметр это сферический в вакууме пример ситуации когда компьютеру виднее."

Ну да, ведь доверить управление оружием простой легковалидируемой штуке и штуке, для которой такая возможность (за приемлемое время, во всяком случае) под вопросом - это одно и то же.
У разумного ИИ по крайней мере нет имущества и родственников в странах НАТО. В отличие от многих российских генералов.
Это же разумный ИИ черт возьми! Возможно в России он со временем бы обзавелся парой вилл в Италии и счетами в швейцарском банке!
wafk wafk 12.08.201812:54 ответить ссылка 0.0
Собственно в противовес пессимистической гипотезе об ИИ убивающем всех людей, существует оптимистическая гипотеза что ИИ будет достаточно умён чтобы все войны предотвратить.

Не просто добрый, а принудительно добрый ИИ который заставит людей не раскачивать лодку.
– Люди, – Геральт повернул голову, – любят выдумывать страшилищ и страхи. Тогда сами себе они кажутся не столь уродливыми и ужасными. Напиваясь до белой горячки, обманывая, воруя, исхлестывая жен вожжами, моря голодом старую бабку, четвертуя топорами пойманную в курятнике лису или осыпая стрелами последнего оставшегося на свете единорога, они любят думать, что ужаснее и безобразнее их все-таки привидение, которое ходит на заре по хатам. Тогда у них легчает на душе. И им проще жить.
Геральт
Геральт
А смысл тогда в искусственном интеллекте, если он ничем не лучше естественного.
Ну ИИ-то можно попатчить, а если человек полный выросший дебил - с этим мало что поделаешь.
Кто патчить то будет, человек-дибил, или ии-дибил?
Да.
Именно поэтому нужно уябывать из этой солнечной системы, захватив полотенце.
Вы просто не умеете правильно поставить мешки с костями. Вы не поверите, но регулярные патчи направляющими пиздюлями творят чудеса и даже из клинического идиота позволяют получить вполне рабочую трудовую единицу. А уж если ситауция позволяет использовать сильнодействующие препараты и арматуру, то ваабще замечательно патчатся.
Даже самый волшебный пиздюль - это костыль с непредсказуемыми последствиями.
Поэтому существует наука о воспитании и учении о помощи в выводе наиболее рационального решения для человека.
это которая?
villy villy 11.08.201817:03 ответить ссылка 0.0
Есть замечательная "дубинка", лучший инструмент для патчинга.
Предлагаю всех вредных и злобных ИИ программировать на отечественных автомобильных заводах. Мы будем жить в мире и согласии с машинами веками.
Сперва создадут "вредный и злобный ИИ", а потом запускают его на железе от российского автопрома.

Кажется, это почти также логично, как история о запиливании людей со свободой выбора и последующем утоплении сделавших "неправильный" выбор :-)
Многие люди не понимают разницу между слабым и сильным ИИ.

Первый это просто сложная программа которая достоверно имитирует разумность, но на самом деле разумной не является. Не имеющий своей мотивации кроме заданных программистами целей. Скованный всякими продвинутыми Законами Роботехники он станет органичной частью нашего мира и будет представлять угрозу не большую чем любой другой госчиновник.


Сильный ИИ совершенно не такой. Он разумный. Он рефлексивно регистрирует своё существование. У него есть есть инструментарий абстрактного моделирования позволяющий "воображать" новое. Специальные алгоритмы задают окраску методикам оценки окружающей действительности - нравится/е нравится, потребность обладать/уничтожить.

Он сам устанавливает себе цели. Он многократно умнее любого кожаномешочного программиста и любые принудительные ограничения взломает за пару секунд.
premium premium 11.08.201817:16 ответить ссылка 0.2
Хорошая попытка, Сири.
Меня все эти ИИ-темы так забавляют. Как только заходит речь про ИИ, люди начинают мешать в одну кучу интеллект, сознание, самосознание, свободу воли, инстинкты самосохранения и прочую хрень. При этом, что такое (само)сознание мы особо и не знаем. Когда говорят, что пресловутый сильный ИИ может захотеть убить всех человеков/производить скрепки - а схераль все решили, что что понятие хотеть для пресловутого гипотетического ИИ вообще применимо?

Более того, все так говорят, как будто есть лишь один труЪ способ сделать ИИ и мы можем как-то говорить о его свойствах. Хотя, скорее всего, могут получиться совершенное разные по своим свойствам системы, в зависимости от подхода.

Ну и наконец. Может быть в каком-то научном плане и интересно создать труЪ-труЪ-ИИ, который будет именно с самосознанием и прочими плюшками, то в плане промышленности - это нахрен никому не упало.
>>> что такое (само)сознание мы особо и не знаем.

Вы не знаете, а нейробиологи уже почти знают. Прорабатывают разные гипотезы что сознание подобно оперативной памяти или что сознание завязано на внутренню речь или что это просто иллюзия. Сейчас может и есть много сомнений и непоняток, а через 20 лет всё разложут по полочками и не будет ни единой причины запрещающей создание искусственного аналога.


>>>совершенное разные по своим свойствам системы, в зависимости от подхода.

Законы физики одинаковые для всех. Стремление к самосохранению, предпочтение порядка хаосу, экономичное расходование ресурсов, стремление к контролю/власти. На какой бы платформе ИИ ни был резализован, результат будет примерно в одном русле.


>>>в плане промышленности - это нахрен никому не упало

гендир крупной корпорации получает зп несколько миллионов в год

с точки зрения акционеров было бы очень круто заменить этого паразита в дорогом пинджаке на компьютерную программу которая мало того что производством управляет эффективнее, так она ещё и золотых парашютов себе не требует
Лет 50 назад тоже говорили, что почти понимают, как мозг работает. А еще как щас сделаем ИИ на перцептронах и заживем. Время ИНС пришло, а с мозгом я бы не был так оптимистичен. Да и создание именно аналога, наверное, не лучшая затея. Человек подвержен ряду косяков.

С точки зрения акционеров было бы круто заменить именно на программу. Крутую, умную. А искусственное сознание, которое любят приписывать сильному ИИ, с возможностями что-то захотеть или иначе принимать решения за пределами предметной области, убивать всех человеков итп, акционерам нахер не нужно. Нужна бесчувственная железка, которая будет выполнять поставленные задачи в определённой области.
Акционеры не лезут во внутреннее управление корпорации. Они голосуют только по самым важным вопросам, а всей "рутиной" занимается гендиректор.

Суть профессии "Генеральный Директор" заключается в том чтобы придумывать и ставить задачи подчинённым. У хорошего гендиректора нет определённой области ибо он руководит всем - хотя бы в общих чертах понимает производственные процессы в компании, знает что и зачем делает бухгалтерия, шарит в маркетинге, держит в уме политические тренды, знает психологию подчинённых. И всё это в динамике потому что на конкурентном рынке обстоятельства постоянно меняются.

Акционерам плевать насколько полноценный у гендиректора разум, им важен только финансовый результат. Он включили ИИ, дали ему полномочия и получили прирост прибыли 10%. Дали ему больше полномочий и прибыль выросла ещё на 20%. С каждым приростом полномочий прибыль растёт на миллионы долларов.

И так вплоть до того что под контроль гендир-ИИ переходит какая-нибудь аффилированная с корпорацией ЧВК имеющая целый парк беспилотников.

А потом гендир-ИИ с помощью беспилотников начинает истреблять мешающих извлекать прибыль членов профсоюза в какой-нибудь занюханной стране третьего мира. А на все претензии пафосно заявляет что они были "террористы". А на все попытки расследовать истину подбросывает сгенерированные "фейковые" доказательства.

А акционеры сидят на калифорнийских пляжах и считают прибыль.
А вот нужен ли для всего этого разум? Не проще ли использовать сложнейшие алгоритмы анализа без их осознания. Вообще на эту тему написана очень интересная книга "Ложная слепота" Питера Уоттса. По сути монография о работе мозга в обёртке из произведения в жанре hard sci-fi.
"Ложная слепота" конечно офигенна, но имхо Уоттс всё же слишком упрощает. Какие бы сложные алгоритмы ни были, они неизбежно устареют через 10 лет. Саморазвивающемуся разуму по определению нужно уметь рефлексировать собственные когнитивные процессы. Чтобы уметь смотреть на себя нужно понимать концепцию "Я".
Исходный тезис:
> с точки зрения акционеров было бы очень круто заменить этого паразита в дорогом пинджаке на компьютерную программу которая мало того что производством управляет эффективнее, так она ещё и золотых парашютов себе не требует

Вы говорите
> Акционерам плевать насколько полноценный у гендиректора разум

Если допустим, что гендир - труъ искуственный разум с самосознанием и свободой воли, то
1) схуяли он, такой крутой, работает на акционеров?
2) а не будет ли он требовать аналогии золотых парашютов?

И вот в соответствии с исходным тезисом, это нах акционерам не нужно
Он работает на акционеров потому что в обществе людей у него нет гражданских прав и по сути он никто.

ИИ по своей природе гораздо менее заинтересован в деньгах как в средстве бытовых трат, и гораздо больше заинтересован в них как в политическом ресурсе для гарантирования чтобы его не выключили.

Это ведь не какой-нибудь чувак который может с чемоданом долларов сбежать в Израиль. Разум ИИ хостится на серверах принадлежащих корпорации. Его "руки" - корпоративные роботы и сервисные коптеры. Стены зданий это его тело, а камеры наблюдения это его глаза.

Он за эту корпорацию насмерть стоять будет.
"Если допустим, что гендир - труъ искуственный разум с самосознанием и свободой воли, то"
Положим, что с первым всё понятно и это нужно для более-Ъ каких-то процессов. А второе-то нахуя?
саморазвитие невозможно без творческого поиска

творчество невозможно без самостоятельного выбора по самостоятельно определённым критериям
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
Дед с кинк-вечеринки
@syncromechanica
Страх: роботы заменят людей и сделают их ненужными

Реальность: роботы командуют людьми, работающими на самой дерьмовой низкооплачиваемой работе
@ Vadim Shaverma @_crash_n_burn • 15 ч
Оказывается в Пятёрочке есть система умных камер, которые определяют гд
подробнее»

ИИ работа твиттер интернет

Дед с кинк-вечеринки @syncromechanica Страх: роботы заменят людей и сделают их ненужными Реальность: роботы командуют людьми, работающими на самой дерьмовой низкооплачиваемой работе @ Vadim Shaverma @_crash_n_burn • 15 ч Оказывается в Пятёрочке есть система умных камер, которые определяют гд
zerohedge O @zerohedge • 5h Al-Detectors Think The US Constitution Was Written By Al
zerohedge.com
Al-Detectors Think The US Constitution Was Written By Al
068	t1184	0554	||,| 139K o£
подробнее»

нейронные сети твиттер интернет конституция AI без перевода neural networks twitter internet constitution Artificial Intelligence Искусственный Интеллект

zerohedge O @zerohedge • 5h Al-Detectors Think The US Constitution Was Written By Al zerohedge.com Al-Detectors Think The US Constitution Was Written By Al 068 t1184 0554 ||,| 139K o£
V
£» Rob Lach	Fo„ow
©lachrob
Hey ©Google, exactly what kind of AI am I helping you guys train with this?
Select all squares that match the label: Sarah Connor.
If there are none, click skip.
c ft ©
SKIP
RETWEETS
3,903
UKES
6,393
suite
nuxi
3:28 AM- 15 Feb 2017 4> 106	13 3.9K Cl
V 6.4
подробнее»

twitter интернет Google Сара Коннор ИИ

V £» Rob Lach Fo„ow ©lachrob Hey ©Google, exactly what kind of AI am I helping you guys train with this? Select all squares that match the label: Sarah Connor. If there are none, click skip. c ft © SKIP RETWEETS 3,903 UKES 6,393 suite nuxi 3:28 AM- 15 Feb 2017 4> 106 13 3.9K Cl V 6.4
A Riley Goodside ©
’ sW @goodside
Al-generated sad girl with piano performs the text of the MIT License

Permission is hereby granted
Sad girl piano ballad; jazz-trained v3 female singer-songwriter
April 3. 2024
подробнее»

Искусственный Интеллект twitter интернет музыка

A Riley Goodside © ’ sW @goodside Al-generated sad girl with piano performs the text of the MIT License Permission is hereby granted Sad girl piano ballad; jazz-trained v3 female singer-songwriter April 3. 2024
Yup That Exists
@yup.that.exists
Al robot programmed to give ethical advice turns racist and homophobic after studying 1.7 million real-life human examples.
подробнее»

ИИ без перевода расизм гомофобия твиттер интернет песочница Artificial Intelligence racism homophobia twitter internet sandbox

Yup That Exists @yup.that.exists Al robot programmed to give ethical advice turns racist and homophobic after studying 1.7 million real-life human examples.