Тут скорее вопрос в другом. Каким образом ИИ захочет уничтожить человечество, если мы не собираемся в ИИ вкладывать инициативность действовать самостоятельно. ИИ по сути черная коробка, которая неизвестным образом решает поставленную задачу. Даже сильный ИИ будет таковым, если не вложить в него волю. Иными словами, если не вкладывать в ИИ возможность действовать не исходя внешнему указу человека, исходя из внутренних убеждений (которые тоже надо запрограммировать и вложить в него).
Получается, чтобы ИИ решил захватить мир, кто-то должен специально его таковым создать.
да легко, как дойдет дело до секс-ботов с правдоподобным и человечным поведением, так и вложим и инициативность и агрессивность, и убер супер обучающийся модуль, чтоб под любой фетишь мог подстроится и похуй что у кого-то может быть фетиш на скайнет-доминатрикс, разбомбившую весь мир и охотящуюся на оставшихся в живых мужчин ради их семени, все ради удовлетворения клиента как говорится, любой ценой
А у кого-то будет фетиш на няшную вайфу-пони, любящую человеков и создающую для них идеальный утопический рай с фапабельными цветными лошадками, так все и уравновесится)
мне кажется по степени незначительности и бесценности человеческой жизни (а скорее смерти) ваха все же впереди, я тут как бы на это намекал, мол большие дядьки дерутся по каким-то идиотским причинам, мимокрокодилов попавших под раздачу в фарш ибо сохранять им жизнь нерационально и потребует слишком много ресурсов, а люди, оказавшиеся по какую-то сторону баррикад, особого выбора во всем этом не имеют
Еще легче - поставили неправильную задачу(сделать всех людей счастливыми) и дали неограниченные полномочия. ИИ приходит к выводу, что проще всего решить задачу, уничтожив людей(счастливо 0 людей - задачу можно закрывать).
ну ИИ с задачей сделать всех счастливыми мне кажется маловероятным, а вот разработка секс ботов как раз экономически выгодна и более чем вероятна, учитывая нашу человеческую природу
Это по какому признаку ты определил, что константа? ) в плюсах есть ключевое слово для констант - const. Да и обычно принято константы через верхний регистр обзывать типа IS_CRAZY_BLA_BLA, чтобы точно путаницы не произошло.
Воля - это абстрактная хуйня. Твои желания результат внешних стимуляций в процессе обучения твоей нейросети.
Неросети уже сейчас обучаются, а не создаются. Пока ещё это во многом научный процесс, но уже появилось немало техношаманов, которые просто крутят циферки и миксуют датасеты. Уже сейчас есть неросети которые обучают друг на друге. Шанс появления рандомного ИИ делающего рандомную хуйню с рандомной мотивацией, но достаточной эффективностью, с каждым годом всё дальше от нуля.
Нейросеть - это просто классификатор. Он определяет к каком классу принадлежит входной набор данных. Ты конечно не знаешь, как нейросеть пришла к какому-то выводу, но ты совершенно точно можешь контролировать выходные сигналы нейросети. Следовательно, можешь контролировать набор принятия решений этой сети.
Так-то всё является абстрактной хуйнёй, но от этого не перестаёт существовать. Ни один современный робот не обладает волей, только если сознательно это не запрограммировать в нём. Возьмём тех же роботов от Бостон Динамикс. Они просто бегают по заданному маршруту и выполняют заданную программу. Они не могут внезапно захотеть полежать на пляже в Египте, и не начнут грабить людей, чтобы получить деньги на поездку, это к примеру.
Ну да, ну да, конечно, полный контроль. Ты вообще видел последние сети-рисовашки и сети-генерашки? "Воли" конечно там и рядом нет, но так и её и у тебя нет, ты точно такой же классификатор, на входящие данные дающий исходящий ответ ровно таким образом каким научился. Это вопрос просто наращивания сложности и зависимых систем.
Кроме элементарных функций, типа покакать/покушать/поспать, у меня есть амбиции, мечты, желания, которые исходят изнутри меня, и не сводятся к простому выживанию меня, как организма. Чтобы выжить, я действительно могу функционировать, как робот. Но человек - это нечто большее, чем просто выполнение простых функций.
А более сложные стимулы, исходящие из меня, конечно вполне объясняются биологией и эволюцией, но они совершенно не нужны для робота. Роботу не нужно думать, как строить связи в социуме, как размножаться, как преуспеть в карьере, как строить общество. Именно поэтому робот и не будет обладать волей, если её специально не запрограммировать в него.
Сети-рисовашки хороший тому пример. Ты конечно не знаешь, почему робот нарисовал именно такую картину, но ты совершенно точно можешь знать, что выходом этой нейронной сети будет картина, и ничего кроме неё.
Копирование.....
Новые Характеристики получены:
1)Злость
2)Хорошая Память
Получается, чтобы ИИ решил захватить мир, кто-то должен специально его таковым создать.
Объявлено же СумасшедшийРоботУивайца = нет как константа?
Значит быть_добрым_к(человекам)
Правильно мне мамка говорила - учи языки.
А я вот. Тут.
Неросети уже сейчас обучаются, а не создаются. Пока ещё это во многом научный процесс, но уже появилось немало техношаманов, которые просто крутят циферки и миксуют датасеты. Уже сейчас есть неросети которые обучают друг на друге. Шанс появления рандомного ИИ делающего рандомную хуйню с рандомной мотивацией, но достаточной эффективностью, с каждым годом всё дальше от нуля.
Так-то всё является абстрактной хуйнёй, но от этого не перестаёт существовать. Ни один современный робот не обладает волей, только если сознательно это не запрограммировать в нём. Возьмём тех же роботов от Бостон Динамикс. Они просто бегают по заданному маршруту и выполняют заданную программу. Они не могут внезапно захотеть полежать на пляже в Египте, и не начнут грабить людей, чтобы получить деньги на поездку, это к примеру.
А более сложные стимулы, исходящие из меня, конечно вполне объясняются биологией и эволюцией, но они совершенно не нужны для робота. Роботу не нужно думать, как строить связи в социуме, как размножаться, как преуспеть в карьере, как строить общество. Именно поэтому робот и не будет обладать волей, если её специально не запрограммировать в него.
Стоп, что? Потеет?
Где я могу купить потеющую колонку?
Вертят понятие ИИ, как хотят.