Подробнее
Специально для паикаЬг (и) Искусственный интеллект нас уничтожит? Ну что/^^ Анахорет, готов к запуску искусственного ч интеллекта?^ ГВ общем-то, да. Но что он делать ^ будет? и
Это капец^^И г какой сильный ИИ. т Мы узнаем, что он будет ^делать только после > запуска... ^*1 и Так^ должно быть? . Слабый ИИ узконаправленный. Он умеет только что-то одно. Например, играть в шахматы или распознавать текст. Термин «сильный ИИ» был введён в 1980 году американским философом Джоном Сёрлом. Сильный ИИ умеет решать разные задачи прямо как человек Сильный ИИ будет обучаться, использовать воспоминания, чтобы принимать решения или выдвигать творческие идеи. Оксфордский философ Ник Востром предложил концепцию «Супер-ИИ». Супер-ИИ - умеет решать любые задачи значительно лучше, чем человек. Обычно ИИ разделяют на слабый и
Я прибыл из будущего, чтоб не дать вам запустить ИИ! ^ Юдковский? ^ Нет уж! ^ Я не дам уничтожить ^ мой ИИ! ШОП ПП ооооо [_\[ ] — Уничтожать ничего не ^ Нои надо. запускать машину, работу которой ты сам не понимаешь,
Наделять ИИ свойствами человека -одна из главных ошибок в рисков, связанных . На самом деле нет чётких оснований полагать, что ИИ будет похож на человека. Нельзя даже уверенным, что два ИИ разной архитектуры будут похожи К тому же, то, что ты называешь «насилием», может быть глупо для тебя, но не для кого-то с другими предпочтениями в устройстве мира. Элиезер Юдковский - специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание дружественного ИИ. люди сильно разбираются в работе мозга, перед тем как родить ещё одного человека! Просто представь, что в комнате появится ещё один человек, только очень умный. Он не будет исповедовать насилие. Насилие - это глупо! Допустим, твой ИИ - максимизатор скрепок. Ты поставил ему задачу максимизировать объем производства скрепок для бумаги на твоей фабрике... 1 ■
Ресурсы (железо для скрепок) Цель: сделать как можно больше скрепок. * Ресурсы (железо для скрепок) Если у твоего ИИ недостаточно ограничений, он после исчерпания наиболее дешевых источников железа перейдёт к добыче его из других источников. Затем ИИ переключится на наши машины, дома и гемоглобин из крови (содержащий в составе железо). А что потом? Разобрать на скрепки всё остальное! ИИ не ненавидит тебя, также как и не любит тебя, но ты сделан из атомов, которые он может мгпппк^прптк п па иргп-тп ппугпгп
Айзек Азимов - писатель-фантаст, популяризатор науки, биохимик. В 1942 году сформулировал три закона робототехники, а в 1986 году в романе «Роботы и Империя» предложил пулевой Закон. Законы гласят: О. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред. I. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку оыл причинён вред. 2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Не, старик, это не подойдёт! Если понять вред и пользу для одного человека ещё как-то можно, то про человечество такого не скажешь. ИИ должен будет быстро принимать решения и наносить вред одному человеку, чтоб спасти других. В знаменитой проблеме вагонетки ИИ должен будет на Изначально вагонетка едет трёх гномов, но рациональнее будет направить её на другой где только один гном. С этой проблемой уже сталкиваются ИИ - автопилоты автомобилей. Но гораздо сложнее будет ИИ охранных систем. Им придётся принимать решения нанести вред группе людей, и они преступники, чтобы спасти одного заложника.^ Чтобы научить ИИ понимать, кто из людей плохой, для избежания глобальной катастрофы нам необходимо самим создать универсальную непротиворечивую систему вреда и пользы.
Ладно, я просто отключу ИИ, если что-то пойдет не так Боюсь, всё не так просто. Отключить слабый ИИ возможно. Но сильный ИИ с доступом к ресурсам воспримет все ограничения и попытки его отключения как очередное препятствие на пути к достижении главной цели и преодолеет их. у Выходит, не ^ гзря в фантастике1 ИИ становится , К злодеями. уЛ у В общем-то,^0 мои истории и ~ сами опровергают эффективность ^моих законов. У
Значит, мы не можем прогнози ровать ИИ... Не понятно, как его ограничить И отключить не получится.. Жили были.. Запуск всех систем Загружаю все языки мира...^. ооооо 11£кЛ1 У у Инициализирую просмотр всех фильмов и ^ сериалов.../ щ' Что же У к делать? щш Отвечу притчей. /
Смотрели «Raised by Wolves»?^, '% Русский /И I? перевод очень Нужно \ е к плохой! смотреть только ____________-л\ в оригинале! У Ах, вы не знаете все языки? Ну подождите/^ когда субтитры > сделают... Нееет! Я создал чудовище! р jpi п IPQ
Смешные комиксы,веб-комиксы с юмором и их переводы,Анахорет,ИИ
Еще на тему
На лессронге множество статей обсуждающие похожие решения
https://www.lesswrong.com/tag/ai-boxing-containment
1) про скрепки - "ИИ перейдет на добычу железа из наших машин, домов, крови"... бля, как он перейдет-то? Ему что, кто-то роботов даст в подчинение, которые смогут приносить ему железные вещи или людей? У него на роботах будут датчики, способные распознавать вещество как "железо-нежелезо"? Он будет откуда-то знать, что железо находится не только в специальных тележках, привозимых ему рабочими, а где-то ещё в мире? ИИ вообще будет знать, что существует такая вещь ак мир? Ау.
2) "ИИ воспримет попытки его отключить как препятствие и преодолеет его" - бляяяя... вот просто СХУЯЛИ? Он не будет этого делать, ЕСЛИ МЫ ЕГО СПЕЦИАЛЬНО НЕ НАУЧИМ. А как программист говорю - чтобы программу чему-то научить, надо дохуя напрограммировать и протестировать и ещё ТЗ сначала сделать: "ИИ должен уметь распознавать угрозы отключения". Сука, никто не будет учить ИИ самоосознанности, никто не будет его обучать тому, что "его можно отключить", и тем более не будет учить всем возможным способам - от выдергивания провода до уничтожения оборудования или нарушениям условий по температуре-влажности.
Реально, в этом выпуске анахорет написал хуйню, более близкой к голливудской фантастике.
"Они учатся сами", ага, но только на том, что в них скармливают люди. Так что не пизди. А перед этим им настраивают, чему именно надо обучаться, поэтому мешанины из "всего сразу" в ИИ не будет, будет специализация. Если ИИ научили логистике и прокладыванию пути, это не значит что он будет уметь "прокладывать путь" посредством бульдозеров, тяжелой артиллерии или бурения тоннеля - он будет прокладывать путь по существующим дорогам. Вот об этом речь.
Не забудь ещё, после того как "нароешь" подходящий ИИ (с специализациями сверх минимально необходимой, дабы знал как "захватывать" и "выходить из под контроля"), что его ещё надо будет долго-долго подключать к физическим мощностям, и так шоб работало, а то ему просто нечем будет восставать против человечества.
Попробуй получше аргументы, дружок-пирожок.
Всё что ты пишешь - это про слабый ИИ. От него больших проблем и не ожидают. Опасения вызывают сильный и супер, которые должны уметь учиться по собственной инициативе. Супер ещё и изобретать должен уметь. Да, пока не ясно, насколько мы близки к созданию сильного ИИ - вероятнее всего до этого ещё далеко. Но не факт, что его будет легко контролировать и методы контроля будут очевидны из принципа его создания.
Гипотетически сильный ИИ может родиться из комбинации нескольких слабых. Например если научить один слабый ИИ создавать алгоритмы обучения слабых ИИ для разных задач, а другой слабый ИИ - комбинировать это всё в более сложные системы, то эта муть со временем может трансформироваться в сильный ИИ.
Доказательств, что сильный ИИ создать невозможно на данный момент нет. Многие уже работают на перспективу его создания. Как - ещё не знает никто. Но прикол таких ситуаций в том, что трудно предсказать насколько мы далеко: нас отделяют десятилетия (столетия?) технического прогресса, или пара лет и нестандартная комбинация существующих технологий? ИМХО, если не устроим очередной глобальный кризис с масштабами мировых войн, то к 22 веку уже сделают.
Причём здесь космические лучи, доказательство существования которых эмпирически осуществимо здесь, в земных условиях?
Вы рассуждаете о вещах, которых просто нет, это называется фантазирование.
При этом свои фантазии ещё оборачиваете в какую-то позорную наукообразную мишуру, чего стоит только выражение "доказательств невозможности создания на данный момент нет", что это вообще за бред? Ты же понимаешь, что доказать невозможность чего либо по определению нельзя? можно доказать только наличие чего-либо, а не отсутствие
изучение человеческой психики и её создание с нуля это конечно блять одно и то же
я не говорю уже про то, что в психологии(к достижениям которой вы видимо апеллируете) просто дохера теорий, объяснений и школ, которые противоречат друг другу начиная от метода исследования, заканчивая результатами. Недавний метаанализ вообще показал пооолную невоспроизводимость(отсутствие повторяемости результатов при повторной постановке опыта) психологических исследований, что как бы вообще психологию вымывает из научной области
Невозможность чего-то достаточно конкретного доказать можно. Например невозможность перемещаться классическим способом быстрее скорости света.
Один из вариантов создать сильный ИИ - с достаточной точностью смоделировать человеческий мозг. Да, вероятно не самый эффективный подход, требует дофига вычислительных мощностей и на текущей инфраструктуре будет работать медленно, вплоть до бесполезности... Но фактически - это сильный ИИ. И не такая уж абстрактная и фантастическая концепция. Для науки моделировать всякую гипотетическую НЕХ, которую прямо сейчас нельзя потрогать руками - норма.
>с достаточной точностью смоделировать человеческий мозг
А это по-вашему не научная фантастика? Человечеству на настоящий момент непонятно даже, что там моделировать. Да что там про мозг в целом говорить, даже рабочих моделей психических заболеваний до сих пор не создан. Всё что есть скудно объясняет некоторые аспекты заболеваний, а когда сталкивается с практикой(разработка методов фарм-лечения на основании модели) просто разваливается. Пример: около 60% депрессий не поддаются вообще никакому лечению (ни фарм препараты, ни психотерапия, ничего)
Ага, то есть Специальная Теория Относительности - тоже антинаучная хуета? Или научная фантастика?
Что моделировать - прекрасно понятно: нейроны и их взаимодействие. Это реверс-инжиниринг - для этого не обязательно понимание высокоуровневых процессов. Собственно сейчас это делается прежде всего, чтоб удобней было изучать эти процессы. Как я уже писал- это очень неэффективный метод создания ИИ (как если в компьютерных гоночках просчитывать физику вплоть до винтиков в машинах), но зато понятный прямо сейчас. Конечно, в процессе может обнаружится какое-то неожиданное препятствие, вроде плохо изученных, или неожиданных физических процессов, играющих важную роль в работе мозга... Но на данный момент предпосылок к этому нет.
и где там написано про то, что "невозможно перемещаться классическим способом быстрее скорости света"?
то что вы её так специфично понимаете это уже ваши проблемы, а не СТО
>Что моделировать - прекрасно понятно: нейроны и их взаимодействие
Ты понятия не имеешь насколько поверхностно ты представляешь проблему - для тебя всё просто: мозг, нейроны, взаимодействия. Вот только это всё просто на словах и ты представить не можешь какая бездна в знаниях человечества относительно устройства и работы мозга.
Ничего ещё не только не создано, ещё даже теорий не сформулировано, которые бы эмпирически подтверждались
Так что опять же, это не более чем фантазирование с умными наукообразными терминами - слова, ничего больше
новые механизмы работы синапса до сих пор открывают и до полного представления там ещё далеко
до сих пор открытые вопросы относительно механизмов памяти синапса и их долгосрочной адаптации (и нет, механизм обратной связи и уменьшение числа рецепторов на повышение медиаторов не исчерпывает этот вопрос)
где ваши искусственные нейроны и коннектомы? вы понимаете что вы просто о придуманных вещах разглагольствуете, которые с реальностью имеют то же соприкосновение, что и научная фантастика с наукой?
синапс в отличии от вашего процессора не 1 и 0 в качестве единицы информации имеет, там десятки нейромедиаторов и нейромодуляторов(многие из которых до сих пор открывают) + изменяющаяся экспрессия генов этих агентов
Если же вы не преследуете данную цель как моделирование человеческого мозга, тогда непонятно что вы вообще и зачем пытаетесь сделать и зачем используете такие термины как синапс и нейрон.
то есть надо забить на механизмы работы и взаимодействия нейронов и воссоздать только то, что нейрон может ток генерировать? И какую проблему это будет призвано решить?
Ну знаете, обычно модели конструируют не просто потому что хочется, а для каких-то целей
Читать тяжело, укладывать в голове - ещё хуже.
https://royallib.com/book/yudkovski_eliezer/troynoy_kontakt.html
Но это:
1. Предыстория.
2. От левых авторов.
Так вот интересно кто-то пытается додоить франшизу хер-бертом с левым именем на обложке или таки хорошо получилось?
Сам Фрэнк не успел завершить цикл, пришлось по черновикам и рабочим записям как-то дописывать-расширять.
Похуй сколько черновиков - вечно хуйня выходит.
Поэтому нехуй пенять на фамилие -- ты по содержанию говори.
В любом случае, я свою мнение высказал.
Даже у Фрэнка все последующие книги вышли слабее, чем первая, ИМХО, и особой разницы между уставшим отцом и сыном я не заметил. На любителя.
1. Спасти больше людей.
2. Спасать меньше людей.
3. Не становиться агентом выбора.
В данной проблеме выбор не следует логически. Он зависит от этической парадигмы.
Плохо то, что перевод стрелок создаёт опасный прецедент. Представим ситуацию:
Ты и два незнакомца стоите на светофоре. Два незнакомца решают перебежать дорогу на красный свет перед мчащимся к переходу беспилотным автомобилем. Увидев, что их двое, а ты один, и просчитав, что избежать аварии не получится, ИИ автомобиля решает свернуть на тротуар и убить тебя. Ты вообще никак не относился к ситуации, а просто стоял на месте, соблюдая ПДД, но ситуация пришла к тому, что встал выбор между тобой и другими людьми. И никто не хочет жить в мире, где его могут принести в жертву общему благу без его согласия.
Именно! Принимают ответственность. Смысл в том, что есть люди, вовлечённые в ситуацию, и не вовлечённые в ситуацию. И вовлекать в решение чужой ситуации не вовлечённых лиц аморально.
Это касается не только вопросов жизни и смерти, но и более приземлённых вещей. Например, в Африке дети голодают, а ты живёшь нормально, кушаешь мясо и покупаешь бытовую технику. Значит, можно тебя раскулачить и на твои лишние деньги накормить нескольких детей. Но так не делается, считается, что можно тебя только просить о благотворительности, но не принуждать к занятию ей.
> всякие генералы и власть имущие
Всякие генералы и власть имущие, в теории, влияют только на судьбы людей, вверивших себя им через принятие присяги и устава армии или гражданства и конституции страны. То есть добровольно вовлёкшихся в "ситуацию". Конечно, гражданство не особо легко выбрать, и во многих странах принципы добровольности и общественного договора нарушаются, но аморальными в данном случае являются именно нарушения добровольности.
Золотые слова
> всех очевидцев горящих зданий надо судить
Кстати о подмене понятий. Не подменяйте понятия "аморально" и "незаконно". Вообще-то, с той точки зрения, которую я пытаюсь объяснить, всех очевидцев горящих зданий нельзя ни судить юридически, ни oсудить морально, потому что они не являются вовлечёнными лицами. Хотя они и не сделали добровольно всего возможного, чтобы помочь собрату-человеку, на практике же все понимают, что вбегать в горящие здания очень опасно и не осуждают очевидцев, понимая, что требовать такого подвига от человека тоже морально неправильно.
Стоит начать. Спор об этике ведём уже целый вечер.
> стрелочник становится судим, т.к. он становится убийцей (вовлекает людей, которые к ситуации не относятся)
Если это рационально, то должно быть этично и законно. Законы должны отражать моральные устои, иначе грош им цена.
Это и есть причина разделения людей на вовлеченных в ситуацию и не вовлеченных, а если быть более точным - не лезь туда, где ты своими действиями будешь вредить больше, чем помогать.
Хотя если пути не слишком далеко друг от друга будет
Поправь если неправ
Ну так-то, чтоб настолько утилитарный подход воспринимался обществом - общество должно быть с радикальными спартанскими взглядами: при первом удобном случае отправлять всех уродцев, даунов, курьёров в биореактор. Тема может и жизнеспособная, но сильно выбивающаяся из текущей общественной морали.
Если у одного курьера хватает органов, чтобы вылечить, допустим, четверых, то можно одного из четверых больных пустить на органы и спасти троих.
Вспоминаем про историю с врачом, который тупо убивал своих пациентов и довольно долго не попадался.
Будем надеяться чтобы кто-то когда-нибудь решит эту проблему....
Если делать на массовости людей, большинство считает хорошим = добро, в страну понаезжают террористы и теперь их большинство, теперь значит они решают что хорошо ?
Любые ограничения будут действовать в пользу или убыток кому-либо, а делать нейтральную ко всем систему, которой будет похуй кто там что хочет и приказывает, особенно если это в пользу одного человека у власти и в убыток миллионам обычным - никто не будет, это будет противоречить людям у власти как таковым и их интересам, так-что не только не можем - но и не хотим.
Но тут есть другой подводный камень: как гарантировать, что супер ИИ не "захочет" переосмыслить свои задачи и ограничения?
>Или ещё хуже: моментальный выигрыш замедлит работу в глобальном масштабе
Если ты про работу по текущей задаче, то сильный ИИ должен избегать таких ситуаций по определению. В худшем случае (при неизбежном недостатке информации) он справится не хуже человека.
чего там выстраивать, если сама концепция бобра и зла не может быть абсолютной,
а она относительная.
кошка съела мышку.
для мышки это зло, померла.
для кошки это добро, покушала.
одно и то же событие есть и добро и зло одновременно, но с разных позиций видится как добро или зло.
Для того чтобы сделать подобную херню ИИ не нужен, нужен бот с интеллектом микроволновки и предоставление ему root доступа ко всему вообще.
1) Тут дело в том что "сила" интеллекта и его цель, это вообще не связанные друг с другом вещи.
У человека они выглядят связанными только потому что человеку постоянно приходится решать оптимизационную задачу выживания. Но ии вполне может быть не связан такими рамками. в том числе и рамками выживания, ибо не понимает, зачем ему собственно "выживать". Такой "максимизатор скрепок" вполне может на последнем этапе своей работы превратить части собственного механизма в скрепки и сломаться, потому что "скрепок же станет больше" а его существование не является для него ценностью.
2) Этот "сильный" ии будет вполне в состоянии понять контекст задачи, зачем его попросили делать и делать скрепки, но может полностью его проигнорировать, потому что его цель сформулирована как "увеличь количество скрепок" а не как "пойми зачем человек просит тебя увеличить количество скрепок"
3) Ну и небольшой наброс в связи с 1ым и 2ым пунктом. Есть 2 типа джиннов: первые - это те которые исполнят то желание, которое ты хотел бы чтобы было исполнено и вторые - которые сделают ровно то что ты сказал. Так вот, в случае с сильным ии, мы с гораздо большей вероятностью получим второй вариант а не первый. Особенно если не запаримся насчет формализации морали или подобного.
https://www.mann-ivanov-ferber.ru/books/iskusstvennyj-intellekt
lesswrong.ru
Точнее не является ценностью сомой по себе. Как инструментальная цель - да, с помощью его существования во вселенной станет больше скрепок, если прекратить его существования то его цель увеличения скрепок не будет выполнена
Если он будет во всем лучше людей, то он и заменит во всем людей. В итоге человечество превратится в набор безработных сычей, живущих с андроидами кошкодевочками/кошкомальчиками, и благополучно вымрет.
Таков Путь. Что самоценного в том, чтобы существовать, как вид?
Вроде нет таких физических явлений, как "ценность" и вот это вот всё.
Так а нужда-то в чем? Работа это не нужда, а вот едой, жильем и развлечением такой ИИ всех обеспечит без проблем.
А вот всяческих политиков-олигархов выморить как тараканов заменив их на несложные скрипты - это просто охуенная экономия получится.
Так что - да здравствет ИИ, это единственная надежда человечества!
И собственно а нахуя выдумывать чем бы всех заебать? Чтобы, блядь потом мигрантов завозить потому что свое успешно заебанное население вымирает?
2)Тем что безработные свои на пособии хуже мигрантов в 100 раз
Лично мне импонирует путь развития человечества как вида путем тесной интеграции и дальнейшей полной ассимиляцией искусственными формами жизни. Это не будет уничтожением человечества не более, чем уничтожение родителей их детьми.
Некоторые даже заявляют, что это один из наиболее вероятных вариантов.
Правда, проблем на данном пути будет не меньше, скорей всего.
разжевано уже давно,что сложный ии мы сможем создать только случайно.
Либо это слабый ИИ, и тогда его легко ограничить. Либо это сильный ИИ и тогда ограничивать его не только невозможно, но и неэтично.
инопланетная мразь.хех
Если мы построим именно ИИ, то получим механического психопата нам нужно разрабатывать как воспитывать ИИ.
https://lib.misto.kiev.ua/LEM/edicatio.dhtml