


AI Midjourney
Автор Гость_Aleф_*, 02 Dec 2023 16:40
Сообщений в теме: 250
#70
Отправлено 15 September 2024 - 22:46
юю
ю
Чем мне нравится генерация картинок в MJ. Прежде всего - свободой. Ты можешь создать всё, что хочешь - картину, фото, коллаж, скульптуру. Любой сюжет. Любой стиль. Любого героя. Ограничения, конечно, есть, но их не очень много. В твои силах сгенерировать любое изображение, любое настроение, любой нарратив. Кроме трансформеров таких инструментов больше нет.
ю
Чем мне нравится генерация картинок в MJ. Прежде всего - свободой. Ты можешь создать всё, что хочешь - картину, фото, коллаж, скульптуру. Любой сюжет. Любой стиль. Любого героя. Ограничения, конечно, есть, но их не очень много. В твои силах сгенерировать любое изображение, любое настроение, любой нарратив. Кроме трансформеров таких инструментов больше нет.

Сообщение отредактировал Ivan1979: 15 September 2024 - 22:50
#73
Отправлено 16 September 2024 - 00:17
..
К сожалению, примерно 100% людей не понимают как работают генеративные трансформеры (в эту сотню процентов не входит около ста человек, а может быть еще меньше). Почему-то далекие от ИИ и математики люди уверены, что LLM оперируют какими-то статистиками, создают усредненные паттерны изображений на основе примеров, или даже генерируют картинку фрагментами этих примеров, или даже вместо генерации просто находят наиболее подходящий промту пример. Это редкостное заблуждение, LLM работают вообще не так.
Если сильно упрощать, то во время обучения LLM строит модель реальности, где формирует три пространства: образы явлений (изображения реальности), образы понятий (смыслы, отношения и конструктивные элементы) и описания, поскольку часть изображений несут в себе текстовую разметку.
Когда мы задаем промт, LLM создает хаотичную картинку (белый шум) которая содержит суперпозицию всех возможных изображений и путем коллапса этой суперпозиции (условно - Wave Function Collapse, но это аналогия, поскольку LLM работает на сетях) находит вариант наилучшего соответствия промту, с элементами случайных решений в тех местах, которые не определены в промте. Это больше всего похоже на процесс проявления форм, поверхностей и объектов в изначальном шуме. Фрактальное проявление со слойной сегментацией деталей. Примерно так это работает.
К сожалению, примерно 100% людей не понимают как работают генеративные трансформеры (в эту сотню процентов не входит около ста человек, а может быть еще меньше). Почему-то далекие от ИИ и математики люди уверены, что LLM оперируют какими-то статистиками, создают усредненные паттерны изображений на основе примеров, или даже генерируют картинку фрагментами этих примеров, или даже вместо генерации просто находят наиболее подходящий промту пример. Это редкостное заблуждение, LLM работают вообще не так.
Если сильно упрощать, то во время обучения LLM строит модель реальности, где формирует три пространства: образы явлений (изображения реальности), образы понятий (смыслы, отношения и конструктивные элементы) и описания, поскольку часть изображений несут в себе текстовую разметку.
Когда мы задаем промт, LLM создает хаотичную картинку (белый шум) которая содержит суперпозицию всех возможных изображений и путем коллапса этой суперпозиции (условно - Wave Function Collapse, но это аналогия, поскольку LLM работает на сетях) находит вариант наилучшего соответствия промту, с элементами случайных решений в тех местах, которые не определены в промте. Это больше всего похоже на процесс проявления форм, поверхностей и объектов в изначальном шуме. Фрактальное проявление со слойной сегментацией деталей. Примерно так это работает.

Сообщение отредактировал Ivan1979: 16 September 2024 - 00:24
Количество пользователей, читающих эту тему: 1
0 пользователей, 1 гостей, 0 анонимных