забавно .что когда-то типичный рисунок нейросети выглядел примерно так, а не эти ваши идеальные работы ,которые отличишь от настоящих хуйдожников только по неправильному количеству пальцев
https://ru.wikipedia.org/wiki/GPT-3
"Обучение модели происходило на суперкомпьютере Microsoft Azure AI, который был построен специально для OpenAI.[7][3] Компания Lambda Labs подсчитала, что на такое обучение могло уйти от 4,6 млн долларов.[8]"
Если в технологию вложить много денег и человеко-часов то получется хороший результат. Для получения хороших екземпляров этих нейрохужожеств датасет LAION-5B для обучения занимает где-то 240 терабайт исходников, не говоря уже о остальном железе. Весьма дорогое удовольствие, с большой ценой входного билета.
\ - ' . - V//A-7 ' S г - m ê >ш mTv i\ \ % t ш л —шЛ gMgJOAV.r ) 4¡f Кошj^'
iWXfiy¡y N v v /^AlVÎïr/CN T ш*шШ дУжЦт1*
kjVXl
If ^^1 #» J 1 ■ ■*■ ' '-1
6_IZ ¿1
я j u
1 Я ETT#*
"Обучение модели происходило на суперкомпьютере Microsoft Azure AI, который был построен специально для OpenAI.[7][3] Компания Lambda Labs подсчитала, что на такое обучение могло уйти от 4,6 млн долларов.[8]"