[Перевод] Изучаем изображения, использованные для обучения модели Stable Diffusion
|
|
Четверг, 20 Октября 2022 г. 13:57
+ в цитатник
Больше всего расстраивает в ИИ-моделях генерации изображений по текстовым описаниям то, что они походят на «чёрный ящик». Мы знаем, что их обучали на скачанных из веба изображениях, но каких именно? Любому художнику или фотографу интересно, использовались ли его работы для обучения ИИ-модели, но на этот вопрос неожиданно трудно ответить.
Иногда данные полностью недоступны: OpenAI сообщает, что обучила DALL-E 2 на сотнях миллионов изображений с подписями, но
не опубликовала проприетарные данные. Команда разработчиков
Stable Diffusion, напротив, очень прозрачно говорит о том, как обучалась её модель. Так как недавно её опубликовали для общего доступа, Stable Diffusion испытала взрывную популярность, в основном благодаря своей свободной и мягкой лицензионной политике. Модель уже встроена в новую
бету Midjourney,
NightCafe и собственное приложение Stability AI под названием
DreamStudio, а также доступна для работы на собственном компьютере.
Читать дальше → https://habr.com/ru/post/694502/?utm_source=habrahabr&utm_medium=rss&utm_campaign=694502
Метки:
Блог компании QIWI
Обработка изображений
машинное обучение
Искусственный интеллект
Stable Diffusion
нейросети
ИИ
-
Запись понравилась
-
0
Процитировали
-
0
Сохранили
-