Языковая модель: *находит лекарство от рака*
ИИ комментатор: "на самом деле, если посмотреть на лечение, это всего лишь статистическая смесь из идей, которые уже были в обучающих данных. Видите ли, модель не обладает настоящим интеллектом, она просто предсказывает следующий токен, один за одним."
Подробнее
BioBootloader O @bio_bootloader Language Model: *finds cure for cancer* Al Commentator: "actually, if you look at the cure, it's just a statistical remix of ideas that were in the training data. You see, the model isn't actually intelligent, it just predicts the next token one at a time." 12:11 AM • Mar 30, 2023 • 496.4K Views
Искусственный Интеллект,нейронные сети,твиттер,интернет
Еще на тему
Готов поспорить ты тоже никогда не говоришь "смотри на этот рисунок утки\фигуру\статую похожую на живую утку"
Но на этом этапе 95% уже всё.
С точки зрения информации, нет никакой разницы, загрузишь ты в базу обучения майнкампф или спектрографический анализ атома водорода. Итоговую полезность определит применение этой информации. Если тебе нужна нейронка которая будет выводить спектрографические данные, то тебе не стоило вносить в ней майнкамф, если нужна нейрока, которая может копировать стиль адольфыча, то нахер ей спектрография?
Полезность данных определяет желаемый результат.
Опять же, основное назначение языковой модели - таргетирование рекламы, поиск плагиата и контроль за "интеллектуальной собственностью". Искать лекарства от рака таким способом - это абсурд. ИИ конечно можно приспособить и под поиск средств борьбы с раком, но языковая модель для этого не походит.
А что внутри машины, уже зависит от задачи. Если задача химическая, создать лекарство от рака, да, лингвистическая база не подойдёт. А вот если задача политическая, психологическая, итд, вот это лингвистическая модель сможет. Учитывая как много у людей завязано на психологии и общении, что именно сможет лингвистическая модель, это хороший вопрос, на который у меня нет ответа.
Кажется, когда она сдавала экзамены, она получила 4-, что-то такое. Это говорит многое о системе образования, а не о нейронке. Плюс, всё ещё нужен инструмент применения выводов, который ещё не добавили, да и с вводом полученных результатов, пока ещё туго.
А что она не должна иметь? Это интеллект, вполне себе. Ещё туповатый, но это интеллект, который потенциально имеет не меньшие возможностей чем наш интеллект. Для этого требуется меньше чем кажется, мы привыкли себя переоценивать.
2.Те нейронки специально делали на прохождение экзаменов, но синергетический эффект знаний оказался намного выше. Ещё гугл в самом начале разработке многофункциональных нейронок отмечало, что одна выученная область помогает лучше и быстрее решать другие. Когда пришли большие языковые модели, этот эффект и вызвал взрыв. Так то создатели ЧатГПТ абсолютно не ожидали своих текущих результатов. Это должен был быть обычный чат бот, а не та хуйня что получилась.
3.Я о том же. ЧатГПТ это полноценный широкий интелект человеческого уровня. Просто люди ставят максимальный свой уровень, как минимальный для ИИ. Простой пример, люди признали что компьютер научился играть в шахматы когда стал вдрызг разносить человеческих чемпионов. Лучших из миллиардов, а не когда смог обыграть среднего Васю. Так же и с общими системами. Люди говорят, ну плевать что ЧатГПТ умнее большей половины человечества, вот он же не обыгрывает всех учённых и лучших инженеров на их же поле. Ололо, тупой железяк.
Я попрошу не называть будущего нейролидера хуйнёй.
И да и нет, у человечества такой дичайший разброс по мозгам, чтобы говорить о каком-то едином человеческом уровне сложно.
В целом, ему сейчас не хватает скорости обучения, да и цикла проверки выводов ирл (реального применения), ещё нет, но это всё решаемые проблемы.
Хотя я не припомню, где и чем он управлял.
"Специалисты Microsoft научили ChatGPT управлять настоящими роботами и дронами"
Теперь логика такая. Пользователь простыми словами описывает свою проблему. ЧатГПТ превращает это в чётко сформулированную задачу для Вольфрама, который решает это уровнение как экспертная система. Потом ЧатГПТ изучает решение и выбирает только нужное, а под конец фигачит свой вывод уточняющий. Класса в решении уровнения Вольфрама есть два числа, так как Индюшек не может быть отрицательное количество, то наш ответ положительное число такое то.
С людьми это тоже работает между прочим, попроси какого-нибудь научного фаната, который насмотрел кучу видосиков с ютуба про ядерные реакторы, собрать такой и рассчитать все его параметры. Результат будет ещё более бесполезный чем у нейронки.
Если не поможет - уран
И так до тех пор, пока что-то не поможет
https://potokmedia.ru/russia_world/431750/ii-sokratil-vychisleniya-kvantovyh-fizikov-so-100-000-uravnenij-k-chetyrem/
Автор исследования Доменико Ди Санте задался вопросом, может ли искусственный интеллект упростить вычисления. Используя инструмент машинного обучения, группа ученых создала алгоритм, который прошел несколько поколений и обучался неделями. В конечном счете Группе ученых удалось создать программу, которая сократила количество уравнений взаимодействия с сотен тысяч всего до четырех. При том, как утверждает Ди Санте, без потери точности и объема данных.
Яж говорю ты вообще нихуя не знаешь
Ну именно это я и сказал, зачем ты ещё раз повторил?
ЧатГПТ и нейроночки это уже подход Теслы, с анализом ,размышлением и тд. Но они пока ещё слишком тупы, чтобы соревноваться с учёнными такого склада. Поэтому ничего нового особо открыть не могут, как не может ничего нового изобрести или открыть средний обыватель сейчас. Как минимум по причине , что 99% будут велосипеды, а оставшися процент придёт на заблуждения от недостатках знаний. (Я конечно про трудолюбивых реальных исследователях, а не мошениках, коспирологах и фриках). Но со временем ЧатГПТ станет умён как настоящий Тесла, с каждой версий он быстро прогрессирует в мозгах. А интеграция со специализированными экспертными ИИ затыкает его слабости.
To set up Adam for this application required (i) a comprehensive logical model encoding knowledge of S. cerevisiae metabolism [~1200 open reading frames (ORFs), ~800 metabolites] ( 15 ), expressed in the logic programming language Prolog; (ii) a general bioinformatic database of genes and proteins involved in metabolism; (iii) software to abduce hypotheses about the genes encoding the orphan enzymes, done by using a combination of standard bioinformatic software and databases; (iv) software to deduce experiments that test the observational consequences of hypotheses (based on the model); (v) software to plan and design the experiments, which are based on the use of deletion mutants and the addition of selected metabolites to a defined growth medium; (vi) laboratory automation software to physically execute the experimental plan and to record the data and metadata in a relational database; (vii) software to analyze the data and metadata (gen- erate growth curves and extract parameters); and (viii) software to relate the analyzed data to the hypotheses; for example, statistical methods are required to decide on significance. Once this in- frastructure is in place, no human intellectual intervention is necessary to execute cycles of simple hypothesis-led experimentation.
тут нет никакого ИИ блять, всё было засетапено учёными девопсами. он не делает никаких выводов сам, всё на основе заранее указанных и прописанных моделей и правил/эталонных данных
обсёр засчитан
If formula1==x
Then
Formula2(x)
Else
Formula3(x)
На ходу менять правила и алгоритмы тоже. Чат ГПТ может принять любые правила и алгоритмы. Может написать тебе код по только что придуманному тобой языку. ты его описание языка, а он тебе код на нём.
Он так же порождает что-то новое. Берёт огромное количество мусорного контента который в него загрузили и порождает различные рассказы например
Но в любом случае человеческий говнокод хотя бы запускается и делает что от него нужно
Другой пример отсутствия абстрактной логики: при увеличении сложности задачи Chat GPT нередко выдает нерабочий код, при том, что языки программирования куда более точные и логически строгие, чем естественный язык.
Увидишь что он всё так же их идеально решает. Обычно постят вот ЧатГПТ что то там не решил из таких логических задаче, когда мусор на входе. Простой пример.
А и Б сидели на трубе, А упал, Б пропал кто остался на трубе.
Чат ГПТ никто не остался на трубе.
Ололо, ИИ не понимает логику.
Но и человек тут не поймет логику без знания про эту задачу. А теперь сделаем задачу правельной.
"А", "И","Б" сидели на трубе, А упало, Б пропало. Кто остался на трубе.
Чат ГПТ. "И" остался на трубе.
Хоп и всё решается уже. Переформулируем задачу. Добавим уже десять сидящих букв, из которых кто то пропадает или появляется, заменим на зверей и тд. Он каждый раз будет решать.
И как я уже говорил, проблемы Chat GPT в написании когда с ипользованием строго формальных по своей природе языков программирования свидетельствует об отсутствии у языковых моделей каких-либо логических способностей сложнее тех, которые необходимы для построения предложений в задаваемом контексте, что полностью укладывается в определение и методолгию работы NLP моделей.
Вот ещё несколько примеров:
https://medium.com/illumination/i-put-chatgpt-to-the-test-heres-what-it-couldn-t-handle-5897de20481d
https://dailynous.com/wp-content/uploads/2023/01/hall-and-chatgpt-on-knights-and-knaves.pdf
From Sam Altman ceo of openai:
" ChatGPT is incredibly limited, but good enough at some things to create a misleading impression of greatness. it's a mistake to be relying on it for anything important right now. it’s a preview of progress; we have lots of work to do on robustness and truthfulness. "
Ответ: возраст.
Время всегда идет вперед, и с каждым мгновением мы становимся старше, наше количество лет увеличивается, но мы не можем вернуться в прошлое и "уменьшить" наш возраст. Мы можем заботиться о своем здоровье и физической форме, но процесс старения не останавливается, и наш возраст продолжает увеличиваться с каждым днем.
есть что-то, что постоянно увеличивается, а уменьшаться не может?
Да, существует такое явление как рост, который постоянно увеличивается у многих живых организмов в процессе их развития. Например, рост растений и животных, включая людей, начинается с момента их зарождения и продолжается в течение определенного периода времени.
Хотя рост может замедлиться или остановиться после достижения зрелости или в результате заболевания, в целом, он не может уменьшаться естественным образом. Однако, некоторые хирургические процедуры могут уменьшить размеры определенных тканей или органов, но это не является естественным процессом и требует медицинского вмешательства.
есть что-то, что постоянно увеличивается, но никогда не уменьшается?
Да, существует такое явление как энтропия. Энтропия - это мера беспорядка или хаоса в системе, и она постоянно увеличивается в закрытых системах. В соответствии со вторым законом термодинамики, энтропия всегда увеличивается или остается постоянной в изолированных системах, таких как Вселенная в целом.
Это означает, что количество энергии, доступной для работы, снижается со временем, поскольку часть ее расходуется на производство беспорядка. Хотя в отдельных системах могут наблюдаться локальные уменьшения энтропии, в целом энтропия всегда увеличивается, и это процесс никогда не останавливается.
-------------------
чувак, может ты уже остановишься и прекратишь безапелляционно нести полный бред и несусветную хуету, не имеющую нихуя общего с реальностью?
AI Commentator: Это Лекарство от рака молочной железы белых мышей в журнале Nature от февраля 2019 года.
Раньше конечно было проще с этим, но сейчас уже нельзя испытывать непроверенные лекарства на евреях, так что мыши.