Удивительная фото, даже кольца видно, которые супер-тусклые и незаметны для 90% других телескопов/обсерваторий. Вот что-что, а от Вебба я такого снимка не ожидал, казалось он может работать только на огромные расстояния
А есть где-нибудь функция перекалибровки цветов для телескопа? Он же инфракрасный. Типа длина волны Х нанометров соответствует цвету на картинке #abc012, и вот так то пересчитывается интенсивность. Или для каждой фотографии своё придумывают?
Ебашим в raw а дальше раскрашиваем, как хотим. Ты ведь прав, большинство этих фото в ограниченном спектре, НАСА даже выкладывает исходники открыто - там ебать мрак. И есть целая категория энтузиастов, которые занимаются как раз аутентичным раскрашиванием таких фото.
Скорее всего, это было сделано так же.
Ну, грубо говоря, почти все фото, кроме оптического диапазона, раскрашивают. Их же снимают в определённых длинах, с фильтрами. Потом накладывают снимки друг на друга с поправкой на цвет фильтра, получают цветное фото.
Да и оптический диапазон он тоже немного хитрее. Оптика камеры видит чуть больше глаза. Пример - в тумане на видеорегистраторе видно дальше, чем видит глаз.
Ууу а кто тут такой умненький про сенсоры камеры?)
Все так, но с небольшой поправкой. Сенсор камеры видит приблизительно в том же динамическом диапазоне, что и глаз, и технически получает его в 12-битном (иногда 16 или 32) формате. Проблемы начинаются там, где мы не можем отобразить его на наших современных дисплеях, потому что они 8-битные, либо 10-битный HDR (вот что это такое!). Поэтому камеры автоматически конвертируют выход сенсора в 8-битный джипег по вшитому алгоритму, который рассчитан на "ну чтоб типа норм выглядело".
Если снимать в RAW, то ты получаешь полный контроль за тем, что именно ты хочешь отобразить в ограниченном 8-битном из 12-битного исходника. Если поколдовать с уровнями, то можно вытянуть потрясающие данные о свете, которые делают фото неузнаваемым. Более того - производитель может сделать такие профили для сенсора, чтобы по такому алгоритму он фоткал в 8-битный джипег сразу.
Ебать пару часов назад заходил на сайт его чтоб посмотреть что нового, и там ничего не было, и теперь вижу это СРАЗУ НА РЕАКТОРЕ
вы со скоростью света работаете тут?
Скорее всего, это было сделано так же.
Да и оптический диапазон он тоже немного хитрее. Оптика камеры видит чуть больше глаза. Пример - в тумане на видеорегистраторе видно дальше, чем видит глаз.
Все так, но с небольшой поправкой. Сенсор камеры видит приблизительно в том же динамическом диапазоне, что и глаз, и технически получает его в 12-битном (иногда 16 или 32) формате. Проблемы начинаются там, где мы не можем отобразить его на наших современных дисплеях, потому что они 8-битные, либо 10-битный HDR (вот что это такое!). Поэтому камеры автоматически конвертируют выход сенсора в 8-битный джипег по вшитому алгоритму, который рассчитан на "ну чтоб типа норм выглядело".
Если снимать в RAW, то ты получаешь полный контроль за тем, что именно ты хочешь отобразить в ограниченном 8-битном из 12-битного исходника. Если поколдовать с уровнями, то можно вытянуть потрясающие данные о свете, которые делают фото неузнаваемым. Более того - производитель может сделать такие профили для сенсора, чтобы по такому алгоритму он фоткал в 8-битный джипег сразу.
вы со скоростью света работаете тут?