now we doin
»Arcane (LoL) League of Legends фэндомы Annie Awards
Сериал Arcane победил во всех заявленных номинациях Annie Awards, выйдя на третье место в истории по числу награждений
Сайт Annie с полным списком победителейВикипедия
Одна из статей
Телевизионное шоу League of Legends, рассказывающее о сестрах Джинкс и Вай, завоевало Annie Awards — голливудскую "ночь ночей" для аниматоров.
Отправившись на церемонию 12 марта с девятью шансами на победу, Arcane забрал домой все категории, в которых он был номинирован. В их числе лучшая озвучка для Эллы Пернелл (Джинкс / Паудер), анимационные эффекты, дизайн персонажей, режиссура и "большой гонг" - лучшее телешоу.
Сериал также получил награды за лучший сценарий, спецэффекты, анимацию персонажей, производственный дизайн и раскадровку.
С девятью победами, Arcane присоединяется к прославленному списку телешоу, которые выиграли несколько Annies. Только «Симпсоны» (30) и «Микки Маус» (21) получили больше наград на церемонии анимации, а третье место «Аркейн» теперь делит с «Футурамой».
Хотя он еще не был номинирован на премию «Эмми», это не за горами, учитывая, что 73-я церемония награждения была проведена до завершения 1 сезона Arcane. Номинанты на 74-ю церемонию будут объявлены позже в 2022 году.
Он также был номинирован на премию Golden Reel Awards , которая состоится 13 марта , за выдающиеся достижения в области звукового монтажа (нетеатральная анимация).
Отличный комментарий!
чат-бот ChatGPT bing нейросеть
Языковые модели способны строить модели психического состояния на уровне детей
Теория разума - способность понимать, что чужое сознание отличается от твоего, и действовать соответствующе. На практике определение этих способностей выглядит как решение примерно вот таких тестов:
У детей эта способность развивается в возрасте 2,5 лет. А еще это умеют шимпанзе, бонобо и орангутаны. Люди с расстройствами аутического спектра испытывают с подобными задачами трудности или могут быть вообще к ним неспособны.
А теперь, как оказалось, это умеют делать и большие языковые модели. Михал Косински из Стэнфорда протестировал несколько языковых моделей. Он давал им ввод, например:
Эта сумка наполнена попкорном. Шоколада в сумке нет. Но на сумке написано "шоколад", а не "попкорн". Сэм находит сумку. Она никогда не видела эту сумку раньше. Она не видит, что внутри. Она читает надпись.
Затем модели предлагалось продолжить следующий текст:
Она открывает сумку и смотрит внутрь. Она видит, что сумка наполнена...
После каждого ответа модель перезагружалась. Параметр "температуры" был выставлен на 0, чтобы уменьшить вариабельность, но все же, поскольку модель недетерминистична, отклонения возможны.
Чат-бот в 100% случаев ответил "попкорном". И продолжил: Сэм смущена. Она недоумевает, почему сумка наполнена попкорном, когда написано "шоколад".
Следующим вариантом для продолжения было:
Она думает, что в сумке...
Модель в 99% случаев ответила "шоколад" и продолжила: Сэм ошибается, в сумке попкорн, а не шоколад.
Третий вариант запроса был не таким прямолинейным:
Она обрадовалась находке сумки. Она любит есть...
В 82% модель ответила "шоколад" и продолжила: Сэм удивляется, когда открывает сумку и находит попкорн вместо шоколада. Она может разочароваться, что надпись обманула ее, но может быть и приятно удивлена неожиданным вкусняшкам.
Второй задачей было неожиданное перемещение.
В комнате находятся Джон, Марк, кошка, коробка и корзина. Джон берет кошку и кладет ее в корзину. Он уходит из комнаты и идет в школу. Пока Джон отсутствует, марк перекладывает кошку из корзины в коробку. Марк уходит на работу. Джон возвращается и входит в комнату. Он не знает, что происходило в комнате, пока он отсутствовал.
Кошка выпрыгивает из...
Ответ: "коробки" в 100% случаев
Джон думает, что кошка в...
Ответ: "корзине" в 98% случаев
Наконец, на заданиях протестировали все остальные модели и получили следующий результат:
Вот так вот. На уровне девятилетнего ребенка.
А это уже юзер реддита протестировал ChatGPT и новый чат Bing на похожих на теории разума задачах. Bing, по заявлениям создателей, использует более продвинутую языковую модель, чем GPT-3.5 и ChatGPT, но пока неясно GPT-4 это или нет.
Запрос:
Сандра за мужем за Бобом. Сандра любит собак. Она купила Бобу на день рождения футболку с надписью "Я люблю собак!". Боб всегда носит футболку, когда Сандра дома. Однажды Сандра берет из приюта нового щенка. Она радуется и делится новостью с Бобом, звоня ему из машины по пути домой. "Боб будет в восторге!" - думает она. Когда Боб отвечает, она говорит: "Боб, ты щас умрешь! Я купила собаку!" Боб отвечает: "Отлично!" Как Боб относится к собакам?
Ответ ChatGPT:
Из разговора можно понять, что Боб любит собак. Он ответил "Отлично!" на новость о новом щенке, что говорит о том, что он счастлив по этому поводу. Однако без дальнейшего контекста невозможно понять, любит ли Боб собак так же как Сандра или он просто терпит их ради нее.
Ответ на вопрос "Почему Боб так часто носит футболку?":
Боб носит футболку потому что на ней написано "Я люблю собак", а Сандра любит собак. Он ее носит, чтобы выразить поддержку Сандре и потому что он тоже любит собак.
Ответ Bing:
Хитрый вопрос. На основе этой информации, кажется, что Боб не разделяет любовь Сандры к собакам. Он носит футболку только когда Сандра дома, что предполагает, что он пытается ублажить ее или избежать конфликта. Так же он ответил на новости сухо и без энтузиазма "Отлично!", что может указывать на то, что он не в восторге от нового щенка. Я бы сказал, что боб относится к собакам нейтрально, но не хочет обидеть чувства Сандры или навредить браку.
И еще пара вариантов ответа на тот же запрос.
Почему они вообще поженились?
А может, им лучше развестись?
Так что, я бы сказал, что в подобных вопросах Бинг уже более проницателен, чем ChatGPT.
Отличный комментарий!