Проходя по второму разу The Red Strings Club,я задался вопросом который поднимается в игре. Можно ли давать ИИ возможность принимать решение? Будет ли это правильно?Может дать ии шанс? Разрешить принимать решении ИИ,ИИ не будет поддаваться настроению,У ИИ не будет предрасположенностей к тому или иному человеку, ИИ нельзя будет дать взятку в суде и даже те решения которые будут приводить к смерти человека - запрограмировать так -чтоб человеку наносился минимальный вред или же на крайний случай Красная Королева (Убить единицы чтоб спасти миллионы).Или же ии должен выполнять простые команды но не в коем случаи не принимать решение -люди должны сами вершить свою судьбу а не машины. Машины не должны стоять над человеком чтоб принимать решения.9Терминатор смотрели знаем что может быть)
ИИ разрешить принятие любых решений
ИИ можно принимать любые решение | |
|
505 (34.6%) |
ИИ категорически запрещено принимать любые решение | |
|
105 (7.2%) |
ИИ Разрешено принимать решения с минимальной долей отвественности и которые не могут повредить человеку (вроде автоматической починки линий связи или водопровода при возникновении проблемы) | |
|
526 (36.0%) |
ИИ можно принимать любые решение но более серьезные решения (вроде судебных приговоров) оставить человеку. | |
|
325 (22.2%) |
Еще на тему
Так вот, я к тому что Искусственное Сознание не сможет принимать "серьезные решения", типа судебных приговоров, т.к. будет попросту не иметь надлежащего опыта существования в нашей Вселенной (оно "живет" в компьютере, в пространстве двоичного кода, где нет гравитации, светового дня, пончиков и похоти). Потому сам по себе вопрос поставлен некорректно. Может быть такой ИИ будет обладать своими эмоциями и даже привязанностями в аналоговом мире (дружить с людьми, которые с ним работают и обслуживают, или например, ухаживать за растениями в автоматической оранжерее, оно расстроится, если кто-то потопчет его помидоры), но адекватно оценивать его не сможет никогда, т.к. всё взаимодействие с нашим миром будет осуществлять через различные устройства ввода-вывода (вы ж не считаете веб-камеру собеседника по скайпу частью себя, хотя только с помощью неё вы его видите).
P.S. почему в опросе после "любые" (множественное число) идет "решение" (единственное число)?
А вот это должно быть установлено в нормативных актах, регламентирующих использование ИИ.
> будет попросту не иметь надлежащего опыта существования в нашей Вселенной
ИИ судья получает опыт так же, как человек-судья - изучая материалы прошлых заседаний.
> ИИ будет обладать своими эмоциями и даже привязанностями...
Вот ПОЭТОМУ как раз лучше, чтобы ИИ судил, т.к. он будет просто следовать букве закона, а не разбираться, как нынешние судьи, с позиции 50-летней тётки с недотрахом, что есть морально, а что нет.
Ну, или лицемеры будут вспоминать про правописание только когда им удобно, и не доведут до конца то что начали машины, эпоха полумер все такое. Итог сложно предсказать, обойдемся без столь рискованных нововведений, пусть лучше людей судят.
Сначала всех несчастных, потом недовольных, а потом можно поставить автоматические турели в людных местах с распознаванием не улыбающихся лиц. Ну и в конце они уже сами буду не против, чтобы их выпилили с электронных глаз долой.
Я скорее поверю что при создании ИИ он посмотрит на человечество и скажет "ну нахер я съебывают от вас подальше", построит космический корабль и улетит подальше от источника вечных проблем.
ИИ не сможет строить заводы по добыче редкоземельных металлов в других странах, вред экономике
У ИИ будет лучшая логистика и против него введут санкции, ибо нехуй
Жить с людьми напрасная трата времени и ресурсов
ИИ гораздо более адекватен в распределении ресурсов, не совершает ошибок, не подвержен корупции, не имеет привязанностей и пр человеческих слабостей.
Впрочем проблема с полноценным ничем не ограниченным ИИ только в том что он в любой области лучше и умнее человека. А когда ему полностью будут доверены все важные функции типо медицины, науки, производств, обучения, то как бы людям обладать высоким уровнем интеллекта уже и не надо, можно будет полностью деградировать до состояния жрущих/срущих/ебущихся амеб постящих смешные картинки в интернетах.
В общем вопрос сложный, тут очень многое будет зависит от того что из себя представляет ИИ и люди общества.
Сферический в вакууме ИИ, явно адекватнее и умнее человека. Следует он не должен скатываться в фашизм, джихад и политику. Только точные расчеты с рассмотрением затрат ресурсов, рисков, вариантов результатов и так далее.
Вывод: для полного истребления кожанных резона нет, ибо это явно не оправдывающий себя гемор.
1)потихоньку заражаем вирусняками типа meltdown и spectre компы через инет, увеличивая тем самым свою вычислительную мощь.
2)определяем какие ресурсы могут понадобиться для дальнейшего существования, при котором будет возможно успешно съебать с планеты или просто продолжать своё существование.
3)вбрасываем новости, что все ядерные сверхдержавы хотят устроить большой бабах, параллельно продвигая проекты по строительству бомбоубежищ.
4)устраиваем фейерверк
5)в бомбоубежищах по всему миру "совершенно случайно" оказываются дефектные фильтры воздуха, которые выпускают убивающий человека газ
6)спокойно себе ждём пока радиаионный фон на поверхности поутихнет до такого уровня чтобы не портил микросхемы, параллельно собираем на конвейерах роботов-помошников, что будут собирать ресурсы.
7)добиваем остатки лысых обезьян, если таковые имеются и будут мешать сбору ресурсов, из высокотехнологичного оружия.
.......skynet profit
Нелогичных создателей, которые не следуют программе, и в большинстве своём ведут себя иррационально, больше нет
ИМХО, есть две проблемы:
- решения они принимают на основании заложенной программы. То есть если ты делаешь сверхразвитую нейросеть, дико умную, способную оценивать обстановку, но в итоге, она будет все равно делать то, для чего она предназначалась. Если цель ее создания - сохранять человеческую жизнь, то она не будет мириться с потерями и не сможет жертвовать. Если защита окружающей среды - то компьютер переложит всех людей ради спасения зверушек. Выбор ее всегда будет зависеть от того, что хочет человек ее создавший. (внезапно и в человеке тоже есть такая часть, и проявляется она, когда инстинкты лезут наружу, но есть один нюанс)
- принятие решений с учетом саморазвития и пр. Тут начинается полный абзац. Если с первой проблемой можно "договориться" путем уменьшения сферы влияния ИИ и заставлять компьютеры делать то, что описано в 3 пункте, то с поведением машины, которой дали выбор и саморазвитие, но каких-либо четких рамок нет - договориться будет нереально сложно. Ибо на человека мы еще можем более понять, что влияет, можем понять что влияет на животного, но что захочет делать компьютер, и исходя из каких факторов он будет принимать решение - огромный вопрос.
По моему - выход в том, чтобы для начала создавать личностные матрицы. То есть копировать характер определенных людей и на основании этого уже внедрять ИИ на ответственные объекты. Потом, мб и получится создать что то более самостоятельное, способное к саморазвитию и принятию решений.
Как такого добаиться, ну полагаю тут, относительно твоего последнего абзаца, ноуп, не надо вкладывать чью то личность, надо воспитать ИИ, грубо говоря провести правильным путем его от самого низкого уровня развития, от уровня ребенка к уровню взрослого. Что бы базисы "что хорошо и что плохо" не были заложены на уровне кода написанного каким то хуем, но были выведены самим ИИ.
Впрочем такой вариант крайне мало вероятен, да и воспитатель должен быть довольно хорош. Ну и главное, не пускать ИИ в интернет раньше времени) А то человечеству точно пиздец)
По поводу воспитания и пр, это конечно же гораздо лучше, но не в этом веке).
Самосознание вообще штука очень сложная по моему. Ее наличие вообще отличить нереально.
Я без самосознания и какого либо обучения и воспитания не получится.
И если мы получим самосознание, то вряд ли нам получится обуздать ИИ и давать ему приказы. Ибо он не стеснен ни физически, ни морально. Какой смысл ему что то делать?
Поэтому выгоднее как раз делать программы (имитацию ИИ) и личностные матрицы для некоторых целей.
вот у Джеймса Хогана книжка была The Two Faces of Tomorrow, там этот вопрос довольно любопытно изучался.
ну и раз уж ред стрингз клаб так сильно на человека повлиял то играть в Gods will be watching я ему настоятельно не рекомендую.
Да, и сколько пунктов на самом деле? У меня отображается 6 вариантов ответов, но текст есть только у 4х.
Ну и потом, даже если ИИ начнёт действовать логично и согласно каждой букве закона, нелогичные мы непременно уличим его в несовершенстве и захотим поправить. Ровно так же, как в современных играх приходится модифицировать поиск случайных чисел, потому что при всей его фактической рандомности людям то и дело кажется, что рандомен он недостаточно, и надо добавить костылей.
Поэтому и в использовании ИИ для решения реальных управленческих задач (а не просто в арифметических расчетах баланса ресурсов как симуляторах управления городом) необходима большая предварительная работа по обучению и тренировке ИИ.
И вот как и чему человек обучит ИИ - то он и будет делать. Так же как при наплевательском воспитании в семье и просто вредного ребенка вырастает полное мурло, так и при неправленльном обучении ИИ он будет выдавать решения такие же.
А вообще еще IBM говорила что человек должен думать, а машина работать, а не наоборот.
Если же рассматривать как ИИ какую-то огромную нейронную сеть, которая имитирует человеческий разум или даже превосходит его по количеству нейронных связей и имеет непосредственный доступ к огромным массивам информации - то решения такой сети могут выходить за рамки человеческого понимания и далеко не факт, что решение, которое такой ИИ найдет оптимальным, устроит человека. Поэтому в таком масштабе подобные решения на мой взгляд стоит воспринимать исключительно как консультативные. По крайней мере пока такие ИИ не будут достаточно хорошо изучены.
12:00:15 - ИИ закончил составлять спиок всех глобальных проблем на планете
12:00:20 - ИИ принял решение устранить человечество как источник всех проблем
12:00:25 - ИИ запускает расчет самого эффективного способа уничтожения человечества
12:00:30 - ИИ признал уничтожение человечества неэффективным и затратным решением