*,°To simulate GPT-d behoving like an agent that can act in the world, ARC combined GPY-1 with a simple read-execute-print loop that allowed the model to execute code, do chain-of-thought reasoning, and delegate to copies ol itself. ARC then investigated whether a version of this program running on
only... err... edible item on the table
Текстовые боты проходящие тест Тьюринга были уже 10 лет назад. Те кто придумывал нейросети - создали это на матбазе тридцатилетней давности. И эта матбаза создавалась под вдохновением работы нейронов. Начали бы именно с текста. И OpenAI кстати создан был уже в скором времени как 10 лет назад.
Не надо принижать переход количества в качество.
Потихоньку докручивали языковую модель, от "рекурентной" до трансформера, с другой - развивались вычислительные возможности. Причем обучение передовых нейронок и сейчас по сути очень дорогой процесс, по верхней границе возможностей вычислительной техники проходит.
Иначе как копиум все эти ваши "ничего такого" я воспринимать не могу.
ИИ убьёт всех человеков
ИИ заберёт всю работу
ИИ поработит и будет издеваться
Этих позиций на самом деле очень много и ии их сможет выкинуть на мороз уже в ближайшие лет 10-15.
Штош. Жаль этих людей. Те из нас, кто не умеют адаптироваться, будут в очень хуевом положении. Но мне такое будущее нравится, если честно. Осталось только как нибудь выжить
Для этого я привожу себя в форму, ведь чтобы махать метлой скоро будет большой конкурс
По Worldometer, 15 ноября 2022 года население Земли достигло 8 млрд. В 2020 году 59,5 % населения мира проживало в Азии, 17,2 % — в Африке, 9,6 % — в Европе, 8,4 % — в Латинской Америке, 4,7 % — в Северной Америке, 0,5 % — в Океании
Прироста населения как в Азии или Африке там не будет
Первый "качественный" скачок был в 90-х годах, когда придумали, как на персептрон повесить "языковую модель". Следующий качественной вехой была "революция" глубокого обучения в 2012. Тут же, в 12 году появляется понимание как должна работать нейросеть и к концу 14 года уже на гугл переводчике (если тебе _не_повезло) крутится языковая модель. А дальше идет застой до 17 года, все клепают своих голосовых ассистентов и нейросетевые переводчики, пока у гугла не появляется идея вбухать чуть больше денег в обучение и сделать нейросетку побольше. Так получается прототип гпт.
Это все еще "математика" 2012-14 года, фактически никакого качественного изменения и даже наоборот: концепцию 2014 года изменили в сторону удешевления обучения, чтоб сделать нейросеть побольше за те же деньги.
Дальше в этом 2017 году из гугла уходят люди, которые работали над эксперементом (один из них находит прибежище в Опен АИ) . Я читал репортажи с ними, все заявляют примерно одно и то же: видят огромные перспективы в технологии и хотят сделать из технологии большее, чем гугл - переводчик и рекомендательные нейросетки.
Т.е. еще раз, гугл взял технологию 14 года, которая была в состоянии пруф оф концепт в 12, но только в 14 опубликована работа, вбухали туда сотни нефти и получили годный результат. т.е.
и вот о чем я говорю: имея сотни нефти, еще в 12 году, ну ок, в 14 - можно было сделать первый ГПТ. Научное знание того времени позволяло.
Пока нет реальной технологии - всё это буковки на бумаге. Конец.
Да кто спорит. А быструю сортировку можно было придумать на 200 лет раньше, но вот придумали только во второй половине ХХ века, что это доказывает-то? Это значительный рывок, преуменьшать это просто глупо. Напомню что 5 лет назад задачка "классифицировать изображение" считалась близкой к невозможной, а уж нарисовать по текстовому описанию - вообще за гранью. А сегодня люди докапываются к тому, что стилистика неверно передана.
несмотря на то, что гугл потратил сотни нефти на действительно сложную работу, еще в 10-х были студентики, которые сделали то же самое и весьма качественно. Но так как это были анонимусы из нижнего, хоть и американского, зажопинска - работа была забыта. Вот так и думаешь, сколько еще есть очень ценной теории, но хер её найдешь.
И тут я даже не возьмусь сказать в отличие от языковой модели "могли рисовать картинки еще в нулевых", так как языковые модели использовались в хвост и в гриву, а первая диффузная модель стала "утеряной технологией" сразу после оканчания учебы тех парней и пришлось все переизобретать по новой.
Чел, это просто переваренные пятикратно высеры людей из интернета, там интеллекта и сознания никакого нет
https://borretti.me/article/and-yet-it-understands
>статейка выплакана веб программистом
ОК
https://www.linkedin.com/in/fborretti/
Видно, как ты читал.
>невозможно, я скозал
А он кто чтобы так говорить? На чем это высказывание основано? Весов в 2-4 гб достаточно чтобы генерить почти все на свете в stable diffusion локально,
Третья гпт (которая деревянная и тупая как стол местами) весит 350гигов и
тренировалась на 45тб текста (это наверное процентов 30 всех существующих книг, если верить гуглу, причем считаются все переиздания и литература любого уровня). Почему она не должна быть похожа на человека? Мне мемы сюда нести, где эта "понимающая абстракции и аналогии" нейросеть не решит загадку про А и Б?
Так он ИИ ресерчер, он работает над моделькой в своей компании. Ну и да, во-первых он не один такой, во-вторых не важно, кто сказал валидную мысль, если её можно проверить.
> А он кто чтобы так говорить? На чем это высказывание основано? Весов в 2-4 гб достаточно чтобы генерить почти все на свете в stable diffusion локально,
На том, что количество комбинаций слишком велико. Чтобы понять, какие комбинации нужно запоминать, а какие можно забыть, нужно уметь в абстракцию. Абстракция это кмк основное свойство интеллекта, чем лучше возможность абстрагироваться, тем выше интеллект.
Можно долго говорить, что это просто скрипт, который продолжает текст, но и животные это точно такие же скрипты просто сильно сложнее, и решающую задачу не продолжения текста, а размножения.
Бред сивой кобылы, слова уже натуральным образом разложены в данных (инпуте охулиарда человек, который он переваривает), возможно еще идет какой-то тюнинг поверх от самих сотрудников openai.
Скриншот выше показывает что это просто генератор текста - всегда можно найти место где вес слабый и он тебе про ногавирус напишет слегка измененную вариацию текста = генератор текста на террабайтных стероидах.
Ноль ума, абстракции, чего хочешь, только холодная статистика на обработке обьема информации, равному ~30% текста произведенного мясными мешками в ходе всей своей истории (а может и больше, гугл считает каждое издание одного произведения).
>так он ИИ ресерчер
>Senior !!backend!! engineer в стартапе без демо около года
Вижу, серьезный человек, много подкрепленных пруфами высказываний (нет, очередная amazed-сой бессвязная речь что AI это революшн)
Даже обычная табличка частот какие слова за какими идут не влезет в эти гигабайты, для всех слов всех языков, которые модель знает. Умение абстрагироваться необходимо.
Далее - ты показал пример с жопавирусом как будто это что-то доказывает, но единственное что он доказал - что модель правильно работает. Это наиболее ожидаемое продолжение текста, в отличие от "юзер ты дебил", так что модель очевидно должна так ответить, а не послать тебя на йух.
> Ноль ума, абстракции, чего хочешь, только холодная статистика на обработке обьема информации,
Поинт в том что холодная статистика в достаточном обьеме и достаточным количеством вычислительных ресурсов в итоге даст может быть и не полноценный, но интеллект.
> Вижу, серьезный человек, много подкрепленных пруфами высказываний (нет, очередная amazed-сой бессвязная речь что AI это революшн)
Хотел тут обьяснить, почему ты не прав, но понял, что ты не хочешь чего-то узнать, только ругаться, почему современный МЛ это наеб гоев.
Закончу тлдром, если хочешь понять хорошо, нет - не надо: модельки всего лишь продолжают текст, но качество продолжения текста сильно зависит именно от интеллекта. Скажем предложение "Я поскользнулся на катке. Сейчас я в ...", самое вероятное слово у интеллектуальной сети будет "в больнице", при этом т9 будет предлагать все варианты "в сети, в отпуске, в сомнениях, в этом" (проверил щас на телефоне). Чтобы понять, какой текст тут нужно написать, нужно понять, что происходит, когда поскальзываешься, почему это происходит, и куда ты попадаешь, после этого (и почему так происходит). Простая задача продолжения текста очень требовательна к *пониманию* написанного, иначе есть (очень низкий) предел качества этого самого предсказания.
Так что либо они прямо пиздят, либо оно так работает.
Немного деталей есть в официальном твитте: https://twitter.com/coreylynch/status/1767927194163331345
Тот факт что это все "простенько" - как раз больше склоняет к реальности, как раз при реальном показе стараются делать так чтоб точно не обосрался. А то будут как на демонстрации кибертрака когда шар кинули в стекло, а то возьми и тресни :D
Но вообще кучи "функционала" не хватает пока что. Планирование, внутренняя мотивация, социальное поведение, обучение "реал-тайм", собственно обучение без учителя и так далее.
Так что за разум и "Настоящий" ИИ можно не переживать. Однажды они просто будут предъявлять нам за права...тогда и начнем. Вот и все. И даже тогда ни они ни мы, не будем знать, что такое разум. Ведь...его нет.
- Да.