Оригинал материала: https://3dnews.ru/565711

Главные события прошедшей недели. Выпуск №50

Внимание всех любителей цифровой фотографии на этот раз было приковано к выставке Photokina 2008, проходящей в немецком городе Кельн, и поводов для этого было немало. Мероприятие позволяет проследить развитие цифровой фототехники на ближайший год, и наиболее значимым событием стоит признать выпуск аппаратов стандарта Micro Four Thirds – компактных устройств со сменной оптикой. Первой о подобной новинке объявила компания Panasonic, анонсировавшая и показавшая на Photokina 2008 модель Lumix G1, отличный обзор которой можно найти в статье «Кёльнская премьера Panasonic Lumix G1: впечатления и первые снимки». Вкратце скажем, что аппарат должен составить конкуренцию зеркальным камерам начального уровня, чему поспособствует не только относительно компактный размер устройства, но и целый ряд технологий, позволяющих легко получить качественный снимок практически при любых условиях съемки.
 Зеркалка Olympus стандарта Four Thirds
Однако стандарт Micro Four Thirds подразумевает не только создание на его основе конкурентов зеркальным камерам, но и более компактных решений, что доказала компания Olympus, показавшая в ходе выставки концепт небольшого в плане габаритных моделей аппарата, пока не получившего официального обозначения. Как гласит официальное заявление производителя, новинка будет сочетать размеры «топовых» фотокомпактов и высокое качество снимков, присущее SLR-камерам. К сожалению, пока подробности отсутствуют, но Olympus пообещала начать поставки устройств в следующем году, по всей видимости, ближе к концу года. Но только аппаратами стандарта Micro Four Thirds анонсы Olympus не заканчиваются – в начале 2009 года стоит ожидать еще и новую зеркальную камеру. И снова подробности нам не раскрываются, сообщается лишь о поддержке целого ряда функций, позволяющих фотографам без особых усилий получать высококачественные и интересные снимки – многое будет заимствовано у «топовой» на данный момент модели Olympus E-3, но позиционируется грядущая новинка в ценовой сектор уровнем ниже. Однако перейдем от самих фотоаппаратов к их «сердцу» - сенсорам изображения, которые преобразуют падающее электромагнитное излучение в цифровую информацию. Одна из наиболее интересных презентаций на эту тему провела компания FujiFilm, которой принадлежит разработка «суперсенсора» Super CCD EXR, последнего поколения CCD-сенсоров японских разработчиков. Новая микросхема призвана объединить такие понятия, как высокое разрешение и высокая чувствительность сенсора, и сделать возможным получение качественных снимков при помощи компактных фотоаппаратов. Как известно, для получения фотографий в случае низкой освещенности от сенсора требуется высокая чувствительность, в случае высококонтрастных изображений на первый план выходит динамический диапазон, тогда как для получения детализированных снимков, например, для пейзажной съемки, ключевую роль играет разрешение сенсора. Однако разработка микросхемы с оптимальным соотношением всех параметров сопряжена с целым рядом трудностей – простое увеличение разрешения приводит к целому ряду неприятностей, в частности, снижение его чувствительности и появлению цифрового шума на темных снимках. Для решения этой проблемы разработчики FujiFilm пошли по пути создания «умной» микросхемы, которая способна изменять параметры работы при изменении условий фотосъемки. Интересным нововведением становится и конструкция микросхемы, когда пикселы одного цвета объединяются в пары – с одной стороны, такое решение не должно приводить к снижению разрешающей способности, с другой, увеличивается площадь фоточувствительных элементов одного цвета, что приводит к снижению цифрового шума. Не менее полезной оказалась технология Close Incline Pixel Coupling, которая подразумевает снижение расстояния между соседними пикселами, что также положительно сказывает на качестве снимков при том же разрешении сенсора.
 Fujifilm Super CCD EXR 1
< Fujifilm Super CCD EXR 1.jpg - Fujifilm Super CCD EXR>
 Fujifilm Super CCD EXR 2
 Fujifilm Super CCD EXR 3
Но самое интересное еще впереди – интегральные микросхемы Super CCD EXR способны делать одновременно два снимка, один из которых характеризуется высокой чувствительностью, другой – низкой. В результате их комбинации повышается динамический диапазон фотографии. Необходимо заметить, что в этом случае различная чувствительность двух соседних пикселей реализована благодаря увеличению выдержки (времени аккумулирования заряда) одного из них. Более того, формирование одинаковых по размеру пикселей приводит к возможности гибкого регулирования динамического диапазона, позволяя практически неограниченно изменять время экспонирования, тогда как предыдущая разработка компании FujiFilm, технология Super CCD SR «оперировала» пикселами различных размеров при единой длительности воздействия светового излучения на все фотоэлементы. Как надеются разработчики, их новинка должна стать популярным решением для целого спектра фотоаппаратов, однако компания FujiFilm отнюдь не рассматривает технологию Super CCD EXR в качестве конечного пункта развития фотосенсоров для коммерческих аппаратов. По их мнению, десятилетний срок развития цифровой фотографии – слишком короткий временной промежуток для появления интегральных микросхем, позволяющих получать идеальную с точки зрения фотографа и зрителя картинку.
 Гуглофон T-Mobile G1
Но только новинками для любителей цифровой фотографии прошедшая неделя не ограничилась – одним из наиболее интересных событий стал официальный показ первой модели смартфона, основанного на платформе Google Android. Распространяться аппарат будет мобильным оператором T-Mobile, причем официальное обозначение новинки - T-Mobile G1. Как и ожидалось, платформа от компании Google, предоставляющей целый спектр онлайн-сервисов, не могла быть не завязанной на работы с Сетью – все пользовательские данных в случае Android-смарфтонов будут храниться не на встроенном накопителе, а на серверах Google, а доступ к ним предоставляется посредством онлайн-сервисов. Подобная стратегия со стороны «поисковика №1», причем в случае и персональных компьютеров с весьма объемными накопителями, проводится уже не первый год, и сложно было ожидать от компании чего-то иного. Сложно сказать, насколько удачным оказался «первый блин», однако его уже вовсю сравнивают со ставшим легендарным Apple iPhone – по размерам оба аппарата незначительно отличаются друг от друга, оба имеют дисплей с сенсорным управлением, да и функциональность обоих на высоте. Как сложится судьба новинки пока неясно, однако аналитики предрекают ему светлое будущее, прогнозируя продажи более 400 тыс. гуглофонов только в четвертом квартале 2008 года. Если дела у Google и HTC, производителя первого гуглофона, идут пока неплохо, то вот компания AMD все еще пытается выбраться из финансовой ямы, и одним из вариантов преодоления кризиса является разделение единой компании на разработчиков и производственников. Пока о подобных планах чипмейкера в открытую официальными лицами не заявляется, но тот факт, что компания желает снизить собственные расходы на подразделение по производству интегральных микросхем ни для кого секретом не является. В связи с этим вполне объяснимым выглядит желание возложить бремя изготовления грядущих центральных процессоров на стороннюю компанию. Более того, неофициальные источники указывают, что таковой вполне может стать известная тайваньская компания TSMC. Согласно имеющимся сведениям, чипмейкер будет изготавливать для AMD интегральные микросхемы Fusion по 40-нм технологическому процессу. Напомним, что впервые микрочипы, оснащенные не только традиционным процессорным ядром, но и интегрированной графиков, должны появиться на свет уже в следующем году, а новое поколение тех же микросхем, 32-нм устройства, планируется выпустить годом позже. Что же касается грядущего поколения ЦП – 45-нм решений для серверных и персональных систем, то их изготовлением AMD будет заниматься самостоятельно. Напоследок стоит отвлечься от компьютерного мира, и взглянуть на последние новости из мира науки. В этой области за прошедшую неделю произошло два заслуживающих внимания события: во-первых, после успешных испытаний большого адронного коллайдера (LHC) в его работе произошел сбой, и все запланированные эксперименты перенесены на весну следующего года; во-вторых, исследователи Массачусетского Технологического Института (MIT) решили задачу, над которой билось не одно поколение физиков и инженеров. Начнем сегодняшний разговор именно с LHC, причиной поломки которого стала довольно банальная и заурядная неприятность – неполадки в электрической цепи двух ускоряющих магнитов, что привело к утечке жидкого гелия, и как следствие, значительному снижению температуры внутри сектора и выходу магнита из сверхпроводящего состояния. И хотя рост температуры оказался достаточным для отказа системы, для проведения ремонтных работ помещение придется нагреть еще более чем на сотню градусов (до комнатной температуры), ведь на тот момент температура составляла минус 100 градусов по шкале Цельсия. Только на эти операции у ремонтной команды будет потрачено от трех до четырех недель драгоценного времени, полностью же восстановить работоспособность коллайдера удастся через два месяца. Чуть позже, 23 сентября от CERN пришло подтверждение, что эксперименты на LHC будут перенесены на следующий год, пока же исследователи займутся доведением подготовительного этапа до логического завершения, чтобы подобных ситуаций в будущем более не возникало.
3D-модель поведения потока жидкости/газа
Если события вокруг LHC несколько разочаровывают научное сообщество, то вот исследователи института MIT сделали весьма значительный вклад в развитие современной науки, а одновременно с этим и техники. Главным их достижением стало решение задачи моделирования движения потока газа/жидкости, в частности, поведение потока при движении в нем материального тела. Проблема была поставлена перед учеными еще в начале двадцатого века Людвигом Прандтлем, который показал, что при определенной скорости объекта огибающий его поток «отрывается» от поверхности и начинает турбулентное движение. В результате нарушается идеальная аэродинамика и происходит торможение объекта. Это особенно важно в случае автомобилей, летательных аппаратов, ракет, речных и морских судов и пр., ведь предотвращение указанного выше феномена позволит значительно повысить энергетические затраты при их движении. Впервые одно из решений этой задачи было дано самим Прандтлем, однако он принимал во внимание очень идеализированную картину – расчет проводился только для равномерного потока, скорость которого остается постоянной, да к тому же еще и двумерного. Понятно, что результаты моделирования оказывались далекими от реальности, и не позволяли создавать идеальную с точки зрения аэродинамики форму автомобиля/самолета/ракеты и пр. Теперь же сотрудниками MIT создана математическая модель, которая с высокой точностью демонстрирует поведение газа/жидкости при движении в нем материального объекта. Причем условия, например, постоянство скорости и пр., упрощающие модель и делающие ее менее точной, не накладываются. А значит, достижение ученых в довольно короткое время должны принять на вооружение автоконцерны, самолетостроители, ракетостроители и пр. На данный момент группа исследователей опубликовала отчет по моделированию движению потока в двух измерениях, размещенный на страницах последнего номера издания Journal of Fluid Mechanics, в ближайшем будущем будут предоставлены результаты и трехмерного моделирования.
- Обсудить материал в конференции




Оригинал материала: https://3dnews.ru/565711