Мода, как известно, – штука переменчивая. Но несмотря на ее непостоянность, ей подвластны все. Что в искусстве, что в строительстве, что в искусстве веб-строительства. В этой теме номера я хотел бы рассказать о модных технологиях «строительства» современных сайтов. Причем именно о тех технологиях (не касаясь собственно дизайна), которые «готовы для использования» уже сейчас.
Не секрет, что никто из серьезных веб-дизайнеров уже давно не оформляет текст в чистом HTML. Основные усилия перешли в технологическую плоскость – создать такую систему, в которой уже абсолютно любой человек, даже плохо представляющий, как все работает, может управлять своим сайтом.
И в первой статье речь идет о CMS (Content Management System) – системе управления содержимым сайта. Алексей Моисеев доступным языком объясняет, зачем она нужна, как работает и почему ни один грамотный веб-дизайнер без нее не обходится.
Затем Федор Смирнов рассказывает о технологии, которую не назовешь новой, но, по моим наблюдениям, мало кто может объяснить, в чем она заключается. Статья, прекрасно описывающая суть технологии, позволит многим, кто лишь слышал об AJAX, теперь задуматься и о ее применении.
И напоследок я оставил «нетехнологическую», но очень любопытною статью, чьи авторы рассказывают о том, как устроен организационный процесс создания сайта. После ознакомления с нею становится понятнее многое – в частности, из чего складывается цена сайта и на чем можно сэкономить.
Надеюсь, прочитав сегодняшнюю тему номера, вы будете лучше представлять, что вам нужно и как этого добиться в процессе разработки сайта. А ознакомившись хотя бы с несколькими сетевыми ресурсами, о которых рассказано во врезках Ильи Баркова, вы сможете разговаривать c веб-дизайнерами на одном языке.
WebScript.Ru целиком посвящен веб-программированию на двух языках: PHP и Perl. Этот сайт существует уже несколько лет, имеет свой, и немалый, круг посетителей. Новые статьи публикуются примерно раз-два в месяц, но не потому, что нет предложений, а потому, что отбираются действительно лучшие, профессиональные статьи.
В рамках проекта WebScript.Ru действует несколько сайтов. Большой каталог скриптов, написанных на PHP, Perl, ASP и JavaScript, располагается на www.webscript.ru/scripts.
Кроме того, по адресу gnezdo.webscript.ru находится своеобразный каталог ссылок на интересные ресурсы Интернета, названный «Гнездом».
И самое любопытное – это две CMS, разработанные создателями WebScript.Ru. Обе бесплатны и доступны для использования. Первая – MobilePublisherPHP – как нетрудно понять из названия, использует PHP и СУБД MySQL. Работы над ней временно приостановлены. Вторая CMS – Sanitarium WebLog – использует Perl и базы Berkeley. Эта CMS развивается и процветает.
И еще на сайте есть очень большой форум, где всегда можно получить ответ на интересующий вас вопрос.
Софтерра: Безоконный менеджер
В компьютерном мире есть люди, буквально помешанные на эффективности своей работы. Они не любят мышь, считая ее неудобным инструментом, отнимающим кучу времени. Их бросает в дрожь при виде человека, тратящего десятки секунд на поиск нужной программы в необъятном меню «Пуск». Они с рождения печатают вслепую и не понимают, почему кто-то этого еще не умеет. Даже если они начинают работать под Windows, то рано или поздно переходят на Linux.
//-- Окна и мыши --// Современные интерфейсы, основанные на концепции WIMP (Window, Icon, Menu, Pointing device), рассчитаны в первую очередь на простоту освоения. Трудно спорить с тем, что научиться кликать мышью по кнопкам и выбирать пункты меню значительно проще, чем запоминать сотни команд со всеми их параметрами и опциями. Cам по себе WIMP еще не залог «интуитивности», но если разработчик уделил дизайну интерфейса хотя бы толику времени, то общение даже со сложными программами становится более или менее простым. WIMP используется как в Windows, так и в большинстве графических сред Linux (Gnome, KDE и т. д.). И, пожалуй, надо отдать этой концепции должное – если бы не она, компьютер еще долго был бы «черным ящиком», работать с которым могли бы только специалисты.
Впрочем, многие специалисты таким положением дел как раз и недовольны. Они готовы читать длинные инструкции и разбираться во внутренней логике программ – и они знают, что затраченные усилия в конце концов окупятся. Их оружие – клавиатура, их интерфейс – командная строка, их софт – консольные приложения.
//-- *** --// Однако работа только в текстовом режиме сродни монашеству – ни фотографий, ни сайтов с картинками, ни видео. Администрировать веб-сервер еще можно, но не жить же в таких спартанских условиях постоянно! Волей-неволей приходится перебираться под графические интерфейсы – а они зачастую плохо совместимы с клавиатурным подходом к реальности.
Взять, например, первое понятие из четверки WIMP. Как известно, «окно» – это такой прямоугольник на экране, в котором «обитает» программа. Его можно передвинуть, свернуть, развернуть, потянуть за рамку и изменить размер – все это делается мышкой. С клавиатуры тоже можно – но чисто теоретически. Практически же – неудобно.
Даже если забыть про клавиатуру, окно как таковое не кажется слишком удачным изобретением. Очень уж любят эти бестии рассаживаться по экрану в полном беспорядке, загораживать друг друга, порой занимать все доступное пространство, а иногда, напротив, оставлять нетронутой огромную экранную площадь. Забота по их упорядочиванию ложится на плечи пользователя и отвлекает от главного – решения текущей задачи. Мы, конечно, к этому уже привыкли и без окон почти не представляем графический интерфейс – но все же, неужели ничего лучше не придумано?
//-- Погонщики окон --// Пользователи одной очень распространенной ОС, пожалуй, и не знают, что есть такой тип приложений, как менеджер окон (window manager). Действительно, в Windows он намертво вшит в систему, так что большой свободы выбора здесь нет. Все окошки выглядят и ведут себя совершенно одинаково – если, конечно, само приложение не пытается с этим бороться (как WinAMP и другие программы с изменяемым интерфейсом). В Линуксе ситуация обратная – в соответствии с «путем Unix» (unix way) менеджер окон является одним из кирпичиков, из которых собирается ОС. Его можно вытащить (система не рухнет), можно поставить другой, можно написать свой. Например, такой, какой нужен именно вам.
Большинство оконных менеджеров довольно близки по функциональности, слегка отличаясь способами настройки, поведением, оформлением и скоростью работы. Выбор из них – скорее вопрос привычек и вкуса. Тем удивительнее было встретить среди представителей этого вида нечто совершенно новое. Речь идет о менеджере под названием Ion, который его автор позиционирует как поиск «годного к употреблению» графического интерфейса
Наткнулся я на эту разработку как раз в тот момент, когда меня постигло разочарование. Я полностью разочаровался в среде Gnome, случайно обнаружив, что эмулятор терминала xterm под минималистичным оконным менеджером Fluxbox на машине уровня Pentium 250 запускается быстрее, чем тяжеловесный gnome-terminal под «родным» для него Gnome[Gnome не является оконным менеджером, он представляет собой графическую среду, включающую помимо собственно менеджера (сейчас это metacity) множество разнообразных приложений. Но без большинства из них можно спокойно обойтись] на ноутбуке с гигагерцовым Pentium M. Пришлось искать альтернативу – тут-то на глаза и попался Ion. Пройти мимо было невозможно. Описание было столь заманчивым, что даже отсутствие rpm-пакета и необходимость собирать его из исходников меня не остановили. Пришлось скачать пару дополнительных программ и отредактировать несколько конфигурационных файлов, однако затем все собралось, и – после заветного make install – я оказался в совершенно необычной среде (рис. 1)[Статья основана на стабильной второй версии. С сайта Ion’а можно скачать также текущие «снимки» (development snapshot) с разрабатываемой третьей версии].
//-- Рамки и закладки --// Как и положено программе, рассчитанной на эффективность, а не на пресловутую интуитивную понятность, Ion встретил меня своим man’ом – краткой инструкцией по эксплуатации. Из нее стало известно, например, что окон в менеджере нет (по крайней мере, таких, к которым все привыкли). Честно говоря, в нем еще много чего нет. Например, нет кнопки «Пуск» или ее аналога, нет иконок на рабочем столе, нет трея (по крайней мере, по умолчанию), нет панели задач, нет часиков в углу экрана… Ion – это «чистый» window manager, без лишних наворотов.
Главный принцип работы – разделяй, объединяй и властвуй. Экран разбивается на несколько частей, именуемых рамками, или фреймами (frame), в которых и запускаются программы. В одном фрейме можно запустить сколько угодно приложений, но отображаться в каждый момент времени будет только одно «окно», развернутое на весь размер рамки, а от остальных останутся лишь закладки на заголовке, – аналогично поступают Firefox и Opera с отдельными веб-страницами. Естественно, фреймы не могут пересекаться и накладываться друг на друга, зато их размеры меняются согласованно, можно разделить текущий фрейм на два или удалить, склеив с другим, переместить окно из одного в другой и т. д. Все операции доступны с клавиатуры (еще бы!), но и мышка не отправлена на свалку истории – несмотря на отсутствие привычных трех кнопок в углу окна, правый клик вызывает контекстное меню, в котором можно поискать нужную функцию.
Конечно, в Ion’е есть понятие рабочего места (workspace). Юниксоидам не нужно объяснять, что это такое, а вот Windows-пользователи вряд ли знакомы с этим полезным объектом. Грубо говоря, каждый workspace – это просто независимый «стол», на котором размещаются окна. Например, на одном рабочем месте можно поместить браузер и ICQ-клиент и назвать его «Сеть», на другом – заниматься разработкой программ, на третьем – проверять почту, переключаясь между ними в случае необходимости. Для Ion’а обычный workspace – это что-то вроде набора фреймов со своими приложениями, и не более того.
Несмотря на логичность предлагаемого интерфейса, не всем программам нравится жить в его жестких рамках (в прямом и переносном смысле). Если браузер или текстовый процессор LyX, в котором пишутся эти строки, совсем не против подобной философии, то, например, четыре окошка графического редактора Gimp (палитра, выбор цвета, список слоев и само редактируемое изображение), помещенные в один фрейм, смотрятся довольно забавно: чтобы выбрать, например, зеленую кисть заданного размера, нужно три или четыре раза переключаться между табами. Для борьбы с подобными программами в Ion’е предусмотрен специальный тип рабочего места – WFloatWS, в котором присутствуют уже классические «плавающие» окна, поддерживающие, однако, табы (рис. 2).
//-- *** --// Есть еще несколько «вкусностей», которые придутся по душе любителям клавиатурных интерфейсов. В первую очередь, встроенная командная строка (query, строка запроса), появляющаяся в низу текущего фрейма по нажатию F3. Конечно, это не полноценный shell, но она поддерживает дополнение с помощью кнопки Tab и вполне подходит для быстрого запуска нужного приложения. Столь же легко можно открыть произвольный man, подключиться к удаленной машине по ssh, открыть или отредактировать файл – причем автодополнение каждый раз будет работать наиболее разумным образом, предлагая выбирать только из подходящих для текущей операции объектов.
Ну а если использование одной лишь командной строки вам наскучило, можно нажать F12 и обнаружить меню, знакомое по другим менеджерам: выход и перезагрузка Ion’а, смена оформления, запуск терминала – привычные пункты здесь есть, а остальные можно добавить самостоятельно. Как именно? Об этом ниже.
//-- Lua и доки --// Если бы в Ion’е были только фреймы, о нем, наверное, все равно стоило бы написать – но вряд ли в нем можно было бы работать. Однако это далеко не все возможности, скрывающиеся за неказистым внешним видом и статусом «экспериментального проекта». Какие именно возможности? Да какие хотите! Как и многие другие свободные программы, Ion является не просто оконным менеджером, а эдаким конструктором по сборке оконных менеджеров. По тому же пути идет браузер Firefox, многие текстовые редакторы (Vim, Jed, Emacs), да и сам Linux порой называют «надстройкой над компилятором gcc» (в шутку, конечно). В качестве языка разработки Ion использует
[При этом сам Ion написан на C] – высокоуровневый объектно-ориентированный интерпретируемый язык, с которым я был знаком по его Palm-инкарнации Plua[См. «КТ» #498, «Сага о найденных мегагерцах»].
В простейшем случае Lua используется для базовой настройки буквально всего, что только можно настроить. Скажем, привязка горячих клавиш (keybinding) управляется конфигурационным файлом ion-bindings.lua, представляющим собой просто кусок lua-программы. Если вы хотите изменить стандартную «распальцовку» или добавить новые функции, вам именно сюда. Поначалу кажется, что синтаксис сложнее, чем обычно бывает в файлах настройки, но после нескольких экспериментов и анализа существующей конфигурации его правка превращается в сплошное удовольствие – особенно когда начинаешь понимать, какие возможности здесь открываются[Не стоит редактировать «глобальные» настройки, лежащие в /usr/local/etc/ion (или другом системном каталоге – зависит от установки); гораздо правильнее скопировать нужный файл в ~/.ion2/ и редактировать его там – в противном случае вы рискуете потерять ценные скрипты при переустановке или обновлении Ion’а].
Аналогичным образом, с помощью правки настроечных lua-файлов, можно изменять как поведение, так и внешний вид Ion’а. Скажем, мне пришлось сменить шрифты в выбранной теме оформления, чтобы они поддерживали Юникод и отображали русские буквы в заголовках окон, командных строках и меню[Настройка производится в файле draw.lua, а для запуска Ion’а в режиме unicode-совместимости следует использовать ключ -i18n].
//-- *** --// Более того: помимо правки существующих элементов, можно создавать свои. Например, можно отредактировать системное меню, вызываемое по F12, а можно добавить свое собственное – и привязать его к какой-нибудь другой кнопке. Или сделать свою командную строку – с нужными вам элементами автодополнения. Или вот, допустим, захотелось вам иметь собственную консоль, по умолчанию не видимую, вызываемую на белый свет с помощью горячей клавиши, не привязанную ни к каким фреймам и не зависящую от текущего workspace. Думаете, придется править низкоуровневый исходный код Ion’а? А вот и нет! Все гораздо проще: в системе есть модуль dock, позволяющий размещать в фиксированных местах экрана окна произвольных программ (в частности, именно через него делается местный аналог трея). Достаточно создать такой «док», поместить в него терминал, а потом организовать его отображение/скрытие и передачу фокуса. Соответствующий код займет буквально десяток строчек, а вы получите в распоряжение все, о чем мечтали.
//-- Открытое будущее --// Безусловно, Ion не является заменой менеджерам «общего пользования» – по крайней мере, на текущий момент, – и я не думаю, что все читатели статьи побегут ставить Linux только ради того, чтобы перейти на этот диковинный интерфейс или попрактиковаться в программировании на Lua. Однако мне хотелось бы показать, что в мире существуют альтернативные точки зрения даже на такой, казалось бы, устоявшийся программный стереотип, как оконные системы. Порой эти альтернативы оказываются более удобными, чем общепринятые решения, – и кто знает, какими интерфейсами будут пользоваться наши потомки?
//-- Клавиатурно-совместимый софт --// //-- Менеджер окон --// Конечно, Ion не одинок в своих необычных взглядах на оконные системы. Помимо него существует еще несколько близких по духу разработок, отличающихся степенью минималистичности, настраиваемости и специфическими функциями (их список можно найти на странице Ion’а).
Mozilla Firefox, в общем-то, нормально управляется с клавиатуры. А после некоторой настройки (в частности, установки параметра accessibility.tabfocus в значение "3" для ускорения доступа к элементам веб-форм) – так и вообще все было бы хорошо, если б не один неприятный баг: в Gtk-версии при включенной неанглийской раскладке перестают работать многие горячие клавиши. Отчасти эта проблема решается установкой расширения keyconfig, с помощью которого можно задействовать не зависящие от раскладки кнопки (например, F1—F12), но более радикального решения вроде бы пока не существует. Также советую обратить внимание на добавочку Hit-a-Hint, позволяющую перейти по нужной ссылке, просто набрав ее номер, – очень удобное и оригинальное решение. Для любителей минимализма подойдет conkeror (не путать с konqueror) – по сути, это полностью переписанный интерфейс Firefox’а, лишенный всех изысков, который делает из браузера что-то вроде текстового редактора Emacs (наверное, я бы стал пользоваться именно им, если бы не указанная проблема с раскладками).
Мультимедиа
Эмулятор терминала
Конечно, любая консоль рассчитана в первую очередь на работу с клавиатурой. Однако отыскать подходящую «модель» было не так-то просто: gnome-terminal и konsole слишком тяжеловесны, xterm не умеет работать с красивыми шрифтами, а большинство других программ этого класса не поддерживают Юникод – «родную» кодировку установленной у меня Fedora Core. По душе пришелся проект rxvt-unicode (software.schmorp.de), лишенный вышеупомянутых пороков, включающий в себя несколько «вкусностей», вроде псевдопрозрачного фона и клиент-серверной модели, и на порядок ускоряющий создание новой консоли. После некоторой настройки – приятнейшая во всех отношениях программа.
//-- Мелкие радости --// В отличие от Gnome или KDE, Ion не предоставляет готовую среду, в которой есть все необходимое для работы. Если без встроенного файлового менеджера или меню со списком установленных программ я вполне могу обойтись, то, например, без индикатора сетевой активности чувствую себя не в своей тарелке. Можно было бы запустить под Ion’ом gnome-panel и не расставаться с привычными элементами интерфейса, но вряд ли такое совмещение разнородных сред является правильным. Я пошел другим путем и установил gkrellm – очень удобный и красивый набор индикаторов, показывающих все, что только можно. С помощью дополнительной lua-настройки он был помещен в док и с тех пор всегда находится перед глазами. Ну а для проверки наличия входящей почты я использую прелестную маленькую утилитку gnubiff. Чего и вам желаю!
НОВОСТИ: Большие маневры в темноте
Одна из воистину революционных новинок, заложенных в грядущую ОС Windows Vista (бывшая Longhorn), пока что остается во мраке недоговоренностей и умолчаний. Более того, корпорация Microsoft не демонстрирует ни малейшего желания публично обсуждать это свое новшество. А оно того явно заслуживает, ибо рано или поздно коснется очень многих пользователей. Суть этой новации заключается в мощном шифровании видео/аудиоданных на внутренних компьютерных каналах передачи и блокирование работы устройств воспроизведения в тех случаях, если они не способны обеспечить требуемый уровень защиты контента.
Причина подобных маневров вполне ясна. В Microsoft очень хотят, чтобы не бытовая электроника, а именно компьютер под ОС Windows выступал в качестве «центра домашних развлечений» в домах ближайшего будущего. Но то, как должна выглядеть защита драгоценного высококачественного контента в подобных «центрах», определяют ныне не флагманы компьютерной индустрии или бытовой техники, а всемогущие звукозаписывающие лейблы и киностудии Голливуда. По мнению же Голливуда, новый формат видео высокого разрешения может быть допущен к воспроизведению лишь на той аппаратуре, в которой сигнал остается зашифрованным (или заметно ухудшенным в качестве) всюду, где к нему теоретически можно подступиться для копирования. Аналогичные требования, как известно, выдвигают и студии звукозаписи в отношении своего аудиоконтента в новых форматах высокого разрешения.
Индустрия бытовой электроники явно уже приняла условия Голливуда. Последние модели телевизоров высокой четкости на цифровом входе HDMI (или DVI) оборудованы модулем защиты контента HDCP (High Definition Content Protection). Как показали летние выставочные демонстрации новейших HD-DVD-плейеров Toshiba, изображение высокой четкости здесь подается только на выход интерфейса HDMI с HDCP, а на аналоговый выход – сигнал принудительно ухудшенного качества. Имеются сведения, что и конкуренты из лагеря Blu-ray Disc аналогичным образом переделывают свои плейеры в угоду Голливуду.
В подобной обстановке и корпорации Microsoft, дабы не отставать от соперников, вероятно, пришлось вносить серьезные изменения в соответствующий сегмент ОС Vista. Показательно, что первая бета-версия системы, находящаяся сейчас у тестеров, не содержит модулей внутреннего шифрования видео/аудиоконтента. Но можно уже гарантировать, что такого рода вещи появятся в следующих бета-версиях и окончательном релизе, поскольку на сайте Microsoft выложен большой документ, описывающий новую стратегию корпорации по защите обрабатываемого контента. Суть ее, в двух словах, можно свести к тому, что теперь высококачественный контент по шинам и кабелям компьютера будет пересылаться только в зашифрованном виде, а при подаче на дисплей (в будущем – и на аудиоколонки) искусственно понижаться в качестве, если устройство воспроизведения не оборудовано модулем криптозащиты. Конкретно для монитора это подразумевает защиту HDCP. Поскольку среди компьютерных дисплеев, в отличие от телевизоров, технология HDCP пока что не получила заметного распространения, это означает, что даже новейшие дорогие TFT-экраны не сумеют воспроизводить видео высокого разрешения с будущих дисков HD DVD или Blu-ray. Иначе говоря, имеющий вполне достаточное разрешение дисплей компьютера все равно будет получать на вход картинку качества обычного DVD, поскольку владельцы контента (и ОС Vista соответственно) расценивают все цифровые и аналоговые дисплеи без HDCP как недостаточно защищенные от несанкционированного копирования.
В принципе, теоретически возможен и еще более мрачный вариант, когда на своем экране пользователь получит лишь одну черноту и вежливую надпись-уведомление: «Дисплей недостаточно безопасен для воспроизведения этого контента». Однако есть неофициальные сведения, что Microsoft уже заручилась согласием всех ведущих студий Голливуда не доводить дело до подобных крайностей. И коль скоро хоть какая-то картинка, скорее всего, до экрана все-таки дойдет, то большинство пользователей, может, и внимания-то не обратят на подпорченное качество изображения. А раз так, то и широковещательные объявления о новых свойствах ОС Vista вроде как ни к чему. Зачем лишний раз волновать потребителей?
Будем грабить короля?
Не секрет, что своим стремительным взлетом Google спутала карты многим бизнес-аналитикам. Неугомонный поисковик танком попер на дзоты старожилов рынка ПО, став нынче главной притчей во языцех среди айтишников. Одной из попыток осмыслить роль Google в современном хайтеке является опубликованная в New York Times статья под символическим названием «Relax, Bill Gates; It’s Google’s Turn as the Villain» («Расслабься, Билл Гейтс; теперь главным негодяем будет Google»).
Подытожив экспертные выкладки и сделав несколько исторических обобщений, ее автор пришел к выводу, что ныне софтверная отрасль переживает борьбу за лидерство, равной которой не было с 80-х годов, когда престол прибрали к рукам редмондские воротилы. И, судя по всему, именно Google на роду написано стать новым «царем горы».
Впрочем, шутить с Microsoft не рекомендуется никому – за последние четверть века среди тружеников клавиатур не раз находились смельчаки, пытавшиеся бросить вызов софтверному гиганту и занять его трон. Старожилы Интернета прекрасно помнят десятилетней давности рывок Netscape с ее прогрессивным по тому времени «Навигатором» – а ныне эта компания прозябает на свалке истории. Уроки предшественников пошли Google впрок: она тесно обложила Microsoft стеной бесплатных онлайновых сервисов (от почты до интернет-пейджера), чуть ли не еженедельно пополняя список новым сюрпризом. Побить своими тузами такую колоду гиганту рынка будет гораздо труднее.
Как отмечают многие, стремясь вписаться в уже существующий софтовый мир и перенимая действующие там правила игры, Google все больше походит на своего могущественного соперника. По словам эксперта в области поисковых систем Джо Крауса (Joe Kraus), нынешняя ситуация в мире IT напоминает начало 90-х годов, когда за место под солнцем сражались IBM и Microsoft. Тогда «Голубой гигант» отличался инертностью, предпочитая действовать по традиционным рыночным правилам, в то время как редмондский тигр не боялся рисковать, принимая нестандартные решения, что и сыграло решающую роль в схватке.
Ныне раздача ролей в пьесе изменилась: по образному выражению Крауса, «Microsoft превратилась в IBM, а Google стал Microsoft». Любопытно, что последнее сходство нехотя признает и сам Билл Гейтс. Так, в недавнем интервью журналу Fortune он заявил: «Google больше похож на нас, чем любой из конкурентов, с которыми мы до сих пор сталкивались». Сможет ли предприимчивый и азартный «принц» отправить на заслуженный отдых погрузневшего и ставшего куда более инертным «короля»? По крайней мере, его мозги это позволяют: по количеству и темпам внедрения инноваций Google не знает себе равных в Кремниевой Долине. Не остаются внакладе и сотрудники компании: по самым скромным подсчетам, их средний заработок на четверть выше, чем у конкурентов.
И все-таки тяжела шапка Мономаха: на пути к лидерству Google ждут отнюдь не только деньги и влияние, но и неприязнь соседей. Закрутившаяся череда судебных исков по поводу нарушения копирайта поисковиком – это лишь начало. Все громче звучат голоса экспертов, обвиняющих Google ни больше ни меньше как в варварском покушении на экосистему бизнеса Кремниевой Долины. «Вина» компании заключается в том, что проливающиеся на нее золотым дождем средства инвесторов оставляют на хлебе и воде перспективных новичков. Из-за этого новым информационным Кулибиным стало труднее создавать собственные стартапы (когда-то в подобном «хищничестве» винили Microsoft). Больше всего страданий, разумеется, выпадает на долю прямых конкурентов Google – разработчиков поисковых систем. По словам отца поисковика Oodle Крейга Донато (Craig Donato), теперь на встрече с бизнес-партнерами его неизменно огорошивают вопросом: «Неужели этого еще не сделала Google?»
Так что же, полноводная река народного творчества про Билла Гейтса и Windows вскоре пересохнет, уступив место анекдотам про Пейджа и Брина? Поживем – увидим. Пока же можно сказать лишь одно: «клято место» в софтверной отрасли пусто не бывает.
АНАЛИЗЫ: В поисках новых денег
Судя по множеству признаков, нынешний год может оказаться поворотным в истории электронных платежей. Традиционные системы онлайновых денежных расчетов на основе банковских кредитных карт, давно вызывавшие нарекания своей небезопасностью, за последнее полугодие были чудовищно скомпрометированы серией громких скандалов в связи с массовыми кражами платежных реквизитов. Число пострадавших владельцев карточек исчисляется уже десятками (если не сотнями) миллионов, поскольку торговые сети и фирмы-операторы платежей централизованно накапливают гигантские базы данных с реквизитами карт, но не могут обеспечить им надежную защиту. Для примера упомянем свежую историю со взломом базы американской компании-оператора CardSystems Solutions, в результате чего потенциально обокраденными оказались по меньшей мере 40 млн. пользователей всех основных видов кредитных карт: Visa, MasterCard, American Express и др.
По случайному (а может, и неслучайному, кто знает) совпадению нынешним летом закончился срок действия знаменитого патента Дэвида Чома (David Chaum) на протокол так называемой слепой криптографической подписи, делающий невозможным отслеживание платежей. Из-за юридических заковык этот патент, помимо воли самого Чома, долгое время мешал эффективному развитию систем «цифровых наличных», которые в силу своей анонимности снимают проблемы компрометации банковского счета и кражи личности в целом. Наконец, в последние месяцы системами электронных платежей заинтересовался интернет-гигант Google, явно планирующий развернуть собственную сеть электронной коммерции вместе с поддерживающей ее программой-"цифровым кошельком" для денежных расчетов. И вполне может случиться, что транснациональный «кошелек Google» уже не будет привязан к традиционным кредитным картам банковских сетей. И даже (почему бы и нет) станет удобным средством платежей не только в Сети, но и в офлайновой жизни.
//-- Новые деньги возможны --// Сведущим в этом деле специалистам очевидно, что современные компьютерные технологии предоставляют прекрасные возможности для ввода существенно новой электронной валюты. Поэтому в разных странах сегодня рождаются разнообразные формы денежных расчетов, сохраняющие все преимущества наличных, но заменяющие монеты и купюры на куда более удобное электронное устройство – анонимную (то есть не привязанную к именному счету в банке) пластиковую карточку, брелок на ключах или сотовый телефон.
Причем входят в жизнь эти новые электронные деньги своими собственными путями, весьма отличающимися от эмиссии традиционных валют. К расчетам кредитными или дебетовыми карточками, жестко связанными с конкретным счетом в конкретном банке, большинство людей уже так привыкло, что даже не задумывается об альтернативах. А таких альтернатив, зачастую более удобных и безопасных, существует и создается множество – от разного рода «частных денег» до международной системы анонимных цифровых наличных.
На сегодняшний день большинство валют пускается в обращение национальными центральными банками. Но, в сущности, это не более чем историческая традиция, поскольку для исключительной роли центробанка нет никаких фундаментальных причин. Просто это самый надежный в структуре государства узел – пока есть государство, есть и центробанк. В то же время любая другая структура может выпускать свою собственную валюту, причем на законных основаниях. Единственное, что для этого требуется, – достаточно большая общность людей, признающих ценность данной валюты. А чтобы не вступать в конфликт с государством, непременно желающим лицензировать (и вмешиваться в) любую банковско-финансовую деятельность на своей территории, можно называть валюту не деньгами, а как-то иначе. Например, «мавродиками», как у МММ; фишками, как в казино; или, наконец, «титульными знаками WM», как в WebMoney, популярнейшей системе онлайновых платежей среди русскоязычных пользователей Интернета.
Чтобы система «частных денег» была жизнеспособной, она должна эффективно противостоять подделкам. Для электронных денег это означает надежную криптографическую защиту транзакций и «кошельков». Что же касается аппаратного обеспечения, заменяющего собой кожаные бумажники или стопки пластиковых кредитных карт с магнитной полоской, то здесь все зависит от условий появления новой формы электронных платежей.
Например, уже около 4 млн. японцев приобщились к цифровым наличным благодаря сервису, запущенному оператором сотовой связи NTT DoCoMo. Эта компания продает мобильные телефоны, оснащенные встроенной системой микроплатежей с телефонного счета на основе чипа бесконтактной смарткарты FeliCa фирмы Sony. Владельцы таких аппаратов (обобщенно именуемых i-mode FeliCa), пробежавшись по кнопкам клавиатуры, могут расплатиться за проезд в общественном транспорте или купить сравнительно недорогие товары в тысячах торговых точек по всей Японии. Известно, что и другие компании из сектора мобильной телефонии делают шаги в том же направлении, а Nokia и Philips, в частности, подписали с NTT DoCoMo соглашение о взаимной совместимости разрабатываемых систем наличных микроплатежей. И если дело так пойдет и дальше, то у сотового телефона есть отличные шансы стать одним из главных цифровых кошельков в повседневной жизни человека.
Другое перспективное направление электронных платежей – это карточки «альтернативной валюты» крупных компаний, чаще всего транспортных (из-за широкой географии точек оплаты). Люди, по роду деятельности много летающие по миру, хорошо знакомы с системой бонусов, начисляемых авиакомпаниями постоянным клиентам за «налет» определенного количества миль. К примеру, British Airways недавно заключила соглашение с крупной сетью супермаркетов Великобритании, и теперь обладатели карточек с «авиамилями» могут покупать не только авиабилеты, но и товары в магазинах. А регулярные пассажиры таиландской авиакомпании Cathay Pacific – платить «авиамилями» за лечение в одной из частных клиник.
Произрастают системы микроплатежей и на почве смарт-карт городского транспорта. Так, в Гонконге в 2000 году была введена универсальная проездная смарт-карта Octopus для ускорения доступа к разным системам общественного транспорта. Бесконтактная карточка оказалась настолько удобна, что за прошедшие пять лет во множестве торговых точек поставили терминалы для оплаты с ее помощью недорогих покупок: газет и журналов, еды, напитков и пр. Теперь аналогичную систему разворачивают и в Лондоне – на основе универсальных проездных смарт-карт Oyster.
Если принять в расчет гигантскую транспортную инфраструктуру британской столицы – 150 станций метро, 8 тысяч автобусов, больше 3 млн. карточек в обороте, – то становится понятно, как муниципальным властям удалось решить труднейшую проблему «яйца и курицы» (когда торговцы не хотят тратиться на установку терминалов оплаты, пока нет массового распространения новых платежных карточек, а карточки никто не хочет покупать, поскольку ими негде пользоваться). Говорят, именно эта проблема сгубила в середине 1990-х амбициозные и дорогостоящие проекты систем электронных денег, вроде Mondex и Visa Cash, которые пытались внедрить «везде», а в итоге получилось «нигде». С лондонскими карточками-проездными никто не ставил всеохватывающих задач, однако их уже сейчас на руках миллионы, а с января терминалы для приема небольших платежей с Oyster будут установлены в 3850 магазинах Лондона. Поскольку карточку, на которой закончились цифровые деньги, можно «перезаряжать» (а при нескольких поездках в день автоматически дарится сумма на еще одну), то есть основания полагать, что со временем «твердые» наличные лондонцам могут вообще больше не понадобиться.
//-- *** --// //-- Новые деньги нужны --// Системы электронных платежей явно способны оказать важную услугу особому типу денег, а именно социально-ориентированной валюте, которая служит стимулом к воплощению в жизнь каких-либо политических или социальных идей. Эта разновидность платежных средств начала появляться задолго до того, как получили распространение платежи на основе компьютерных технологий. Для примера назовем своеобразную валюту под названием «часы Итаки», введенную полтора десятка лет назад и по сию пору имеющую хождение в небольшом американском городке Итака с тридцатитысячным населением. Учредил ее местный активист Пол Гловер (Paul Glover), одержимый мыслью, что всякий час общественно полезного труда должен цениться одинаково, независимо от того, был в это время человек нянькой при соседском ребенке или руководил компанией. «Часы Итаки» печатают на особой местной бумаге с помощью специального принтера. В обращении находится больше 12 тысяч «часов», а постоянных пользователей насчитывается около шестисот. В список входят как физические лица, так и продавцы, принимающие эту валюту в качестве платежного средства. За прошедшие годы клоны «часов Итаки» лишь на территории США возникли более чем в тридцати местах.
Идея социально ориентированной валюты на первый взгляд может показаться утопической. Однако в действительности ситуация намного глубже и интереснее. Причем важнейшую роль в реализации этой идеи могут сыграть именно «хайтек-валюты» на основе компьютерных технологий.
Эксперты, давно изучающие феномен под названием «деньги», считают, что в своем нынешнем виде деньги плохо подходят для решения социальных задач. Куда больше они годятся для стимулирования конкуренции и расширения рынков. Когда же внушительные суммы вкладываются в решение социальных вопросов, то деньги либо вообще не работают, либо работают неудовлетворительно. Происходит так в первую очередь потому, что для традиционных денег не удалось найти эффективных механизмов, увязывающих общественно полезное поведение с адекватным экономическим вознаграждением.
Ярчайший, можно даже сказать, вопиющий пример подобной неэффективности – индустрия здравоохранения. Казалось бы, существующая ради здоровья людей, эта индустрия делает деньги, и немалые, на том, что люди болеют. Иначе говоря, она кровно заинтересована в том, чтобы люди болели как можно чаще и тяжелее. А вот если человек пребывает в добром здравии (в чем вроде бы и должно быть заинтересовано общество), то единственными, кто от этого выигрывает, оказываются страховые компании (да и то за счет взносов все тех же здоровяков). Существенно иная картина могла бы быть, если ввести специальную, поощряющую здоровый образ жизни валюту, которая повышала бы благосостояние человека уже за то, что он делает полезные для здоровья вещи. И если тесно увязать эту валюту с успехом деятельности страховых компаний (а еще лучше – индустрии здравоохранения), то социальная отдача от новой формы денег наступит очень быстро.
Или другой, не менее актуальный пример. Государство очень озабочено сбором налогов с граждан, однако сами граждане в большинстве стран не имеют возможности контролировать, на что идут их деньги. Сплошь и рядом бывает, что налоги, заплаченные пацифистами и гуманистами нации, вбухиваются в какую-нибудь бездарную войну, а детским домам или одиноким старикам и инвалидам перепадают сущие гроши. Ориентированная на сугубо социальные нужды, цифровая валюта могла бы стать рычагом для радикальной реформы налоговой системы и формирования у людей принципиально иного отношения к налоговым сборам.
Многие университеты и общественные организации Западной Европы и США занимаются сейчас проблемой ввода в обращение всеобщих социальных валют. Суть задачи – объединить в целостную систему две достаточно разные концепции: локальные валюты, преследующие социальные цели, но лишенные средств для их осуществления; и бизнес-валюты – «аэромили», «перезаряжаемые» проездные или дисконтные карты сетей универмагов, имеющие реальную коммерческую поддержку, однако далекие от каких-либо социальных целей. Для многих исследователей, занимающихся этой проблемой, вполне очевидно, что оба направления могли бы гармонично дополнить друг друга, причем именно в форме электронной системы платежей. И самое главное, что удобнейшая концептуальная структура для реализации этих идей уже существует.
//-- Новые деньги почти есть --// Двое программистов венгерского происхождения, которых жизнь разбросала по разным концам планеты – Агнеш Колтаи (Agnes Koltay) работает в Дубаи, а Дэниел Надь (Daniel Nagy) живет в Торонто, – в свободное время создали систему электронных платежей ePoint. Она построена как GPL-лицензируемый ОС-независимый проект на основе открытых исходных кодов (sourceforge.net/projects/epoint) и позволяет любой сетевой общности создать свою собственную цифровую валюту.
Подробности об устройстве и особенностях ePoint можно найти на сайте www.epointsystem.org, здесь же отметим лишь характерные черты этого выдающегося проекта. Характеризовать всегда удобнее в сравнении с чем-то уже известным. Так вот, ePoint сильно отличается как от наиболее известной за рубежом системы электронных платежей PayPal, так и от самой популярной в Рунете системы WebMoney. И та и другая удерживают с каждого денежного перевода некоторый процент – в качестве платы за услуги. А вот в системе ePoint переводы бесплатны, так как орган для снятия процентов здесь просто не предусмотрен, а структура имеет децентрализованный пиринговый характер. Деньги же на ePoint можно делать за счет разработки/продаж «особенных» программ-кошельков и их сервисной поддержки.
PayPal опирается на банковские кредитные карточки, то есть привязана к конкретным банковским счетам и не предусматривает анонимность. WebMoney допускает первичную регистрацию под анонимным псевдонимом, однако для любой мало-мальски серьезной операции с деньгами клиенту все равно придется сообщить свои паспортные данные. Система ePoint по природе своей является инфраструктурой для анонимных электронных транзакций, органично дополняющей и развивающей в онлайне уже существующие и популярные в офлайне формы цифровых наличных.
Самое главное в работе подобных систем – надежный криптографический протокол, гарантирующий, что однажды заплаченные «деньги» (в данном случае – определенная последовательность байтов) невозможно использовать повторно, для оплаты чего-либо еще. Как и в карточках предоплаты, эмитентом электронных денег в ePoint может быть любой доверяемый в обществе орган. Эмитент криптографически подписывает каждую ePoint-банкноту в обмен на ее денежный эквивалент (в долларах, евро и т. д.) либо на выполненную работу или оказанную услугу. Когда кто-то расплачивается ePoint-деньгами, от их потенциального получателя первым делом идет запрос соответствующему органу-эмитенту, дабы удостовериться в подлинности банкноты. Криптоалгоритм на основе «слепой подписи» гарантирует, что эмитент не узнает, ни от кого исходит ePoint-платеж, ни через кого он уже проходил, а только сделает подтверждение подлинности электронных денег.
В силу бесплатности транзакций, безопасной анонимности и открытости, позволяющей досконально изучить надежность задействованных криптоалгоритмов, а также благодаря другим привлекательным чертам, система ePoint имеет неплохой потенциал для широкого международного распространения. Но, как и везде, для успеха предприятия важен набор критической массы участников или подключение к проекту какого-нибудь солидного игрока. В последние месяцы заинтересованные взгляды общественности именно потому обратились к ePoint, что весь комплект ПО с сайта проекта скачали для изучения инженеры Google. И если вдруг этот гигант, планирующий в ближайшем будущем развернуть собственную сеть электронной коммерции, за основу платежной системы возьмет ePoint, то у анонимных цифровых наличных в Интернете могут открыться воистину грандиозные перспективы.
SUMMA TECHNOLOGIAE: Ваттная революция
Когда Стив Джобс внезапно объявил, что Apple переходит на Intel (удивительно, как не случилось утечки за те пять лет, пока они над этим работали?), вопросов возникло очень много. И неважно, какой из них задавали первым, вторым почти всегда был «а как вы собираетесь защищать свою систему?» (чтобы она не работала на ПК за 300 долларов?). Ответ «надежно, а как – пока секрет» публику, мягко говоря, не устраивал.
Я уже писал о том, что надежность защиты для Apple не так уж и важна, поскольку компания, очевидно, уже не собирается зарабатывать на «железе» – а «размывание брэнда» можно конвертировать в «ползучесть» (это мерзкое слово в отношении брэнда означает самое что ни на есть позитивное качество). И вот – первые подтверждения. У бета-версии Mac OS X для платформы Intel уже успешно оторвали крючочки, которыми та цеплялась за аппаратные возможности защиты, и теперь таскают ее по тем самым ПК за 300 долларов. На которых, к удивлению народа, она работает очень даже шустро.
Если Apple была вынуждена объяснять свои резкие движения и по возможности полно отвечать на каверзные вопросы, от Intel на ту же тему удавалось добиться лишь ответов в духе «мы не комментируем необъявленные продукты». Лишь Патрик Гелсингер (вчерашний технический директор, а ныне старший вице-президент и глава подразделения Digital Enterprise Group), заехавший на денек в Москву, рассказал, что Apple ему дорога не прибавкой трех-четырех процентов к объемам производства: «Нам проще добиться этого прироста, удовлетворяя Dell». Гелсингер считает, что PC-отрасли (очевидно, за пределами Intel) явно не помешает свежая струя, и приход такого генератора оригинальных идей, как Apple, может хорошенько встряхнуть остальные 96%.
У самой Intel, однако, недостатка в инновациях не наблюдается. Только если раньше их мерили в мегагерцах, теперь универсальной валютой стали ватты. Для Intel ваттный измеритель прогресса тем более актуален, что нынешние процессоры Pentium 4 и Xeon по энергопотреблению можно занести в чемпионы в своей категории. Впрочем, учитывая цены на нефть, неудивительно, что флюгер маркетинга развернулся от производительности в сторону экономичности.
Необыкновенно скромная в энергопотреблении архитектура во второй половине следующего года станет преемницей NetBurst (нынешние Pentium 4 и Xeon), – сообщил CEO Intel Пол Отеллини на августовском IDF. Серверную версию преемницы назовут Woodcrest, настольную – Conroe и мобильную – Merom, и все они будут с двумя ядрами. А в конце десятилетия родится x86-совместимый процессор, потребляющий «наяву» столько же энергии, сколько нынешние «во сне», – всего полватта. В ближайших же планах Intel – выпуск наследника Pentium M с двумя ядрами для мобильных ПК (Yonah) и его серверной версии Sossaman (именно так – серверная версия мобильного чипа). Yonah, вместе с чипсетом Calistoga, входит в мобильную платформу Napa. Двухъядерные процессоры Xeon Dempsey и Paxwille ожидаются в начале следующего года, а продвинутые чипсеты Reidland и Whitefield для многопроцессорных систем – в 2007-м.
Поскольку в кодовых названиях легко заблудиться, можно было бы порекомендовать корпорации Intel использовать вместо географии историю – давая своим перспективным разработкам имена представителей известных династий. Тогда не будет путаницы, кто за кем следует в плане выпуска. Но и тут, однако, могут возникнуть затруднения: например, заранее известно, что какая-то ветвь династии плохо кончила, а в отношении будущих процессоров для таких утверждений нужно обладать изрядной прозорливостью. Впрочем, кодовые названия предназначены в основном для специалистов, для широкой же публики придумывают торговые марки. Поскольку все приличные слова в этом качестве уже зарезервированы, маркетологам приходится все труднее, а названия становятся все замысловатее. Вдохновившись успехом платформы Centrino для мобильных ПК, Intel решила повторить тот же трюк для ПК настольных – на IDF был презентован новый машинокомплект под названием Viiv (см. новость «Вокруг да около»). С ним корпорация обещает исполнение американской мечты – компьютер, который будет не грузиться, а включаться.
Работать Viiv будет под управлением Windows Media Center Edition, и это неудивительно. Удивительны другие новости, приходящие из стана Microsoft. Компания определилась с выходом нового релиза своей технологии виртуализации и его формой. Вначале Microsoft планировала выпустить обновление Virtual Server 2005, но потом сочла его столь выдающимся, что решила оформить в виде новой версии – Virtual Server 2005 R2. Кроме поддержки «моментальных снимков» и «замораживания» системы, переноса виртуальных машин с одного компьютера на другой и других черт, которые должна иметь всякая уважающая себя технология виртуализации, заявлена очень необычная для Microsoft особенность – поддержка Linux в качестве альтернативной операционной системы. По словам приехавшего на IDF главы одного из подразделений Microsoft Марка Кифера, компания еще не выбрала дистрибутив, который она будет поддерживать, и ведет переговоры с Novell и Red Hat. Путь к химере «Microsoft Linux» теперь уже не кажется невероятно долгим. Интересно, у Билла Гейтса хватит денег, чтобы купить сразу и Red Hat, и Novell?
В поиске средств единения с Linux компания Microsoft могла бы взять пример с Sun Microsystems, учредившей в августе должность омбудсмена. В британском парламенте омбудсмен занимается расследованием жалоб граждан, а в Sun назначенный на эту должность Саймон Фиппс будет выслушивать недовольных политикой фирмы в области открытого ПО и по возможности урегулировать недоразумения. В качестве примера таких недоразумений Фиппс приводит недавний казус с аннулированием лицензии на Java для FreeBSD. Верная своим корням, Sun выдала для FreeBSD бесплатную бессрочную лицензию на Java, продлевавшуюся каждый год (до тех пор, пока не была аннулирована в связи с выпуском новой лицензии, которую FreeBSD должна была получить у Sun на тех же условиях). Но в Беркли дочитали только до слова «аннулирована» и поспешили обидеться – совершенно напрасно, как считает Фиппс. Случай, однако, наглядно показывает причину, из-за которой Ричард Столлмен призывает Sun отпустить Java в свободное плавание под лицензией GPL. Ситуация «моя Java, что хочу, то с ней и делаю» хороша с точки зрения стандартизации. Но если Sun хочет сделать Java воздухом для отрасли, кому нужна монополия на воздух?
ТЕМА НОМЕРА: Главное – Порядок
Клиент, обращающийся в студию веб-дизайна, зачастую плохо представляет, какой объем работы нужно проделать, чтобы в конце концов по милому ему адресу www.название_фирмы.ru появился хороший веб-сайт.
Именно поэтому, чтобы муки творчества не затянулись на долгие годы, начинать нужно с четкой формулировки задачи и целей. Когда совместными усилиями клиента и представителей студии этот этап пройден, клиенту могут быть названы примерные расценки, способы оплаты и ориентировочные сроки. Кстати, потенциальные заказчики часто спрашивают о наличии прайс-листа. Это неверный подход: прайс-лист может быть в магазине, в кафе, в музее, в прачечной – потому что все наименования этого «листа» (меню или прейскуранта) созданы по определенным правилам и нормам. Дизайн же – «вещь», не поддающаяся стандартизации и нормоконтролю, поэтому наличие у некоторых студий прайс-листа с, например, таким пунктом: «Веб-сайт: до 10 страниц – 100 у. е.» – может вызывать лишь мысли о некомпетентности и неграмотности работников такой студии. Реально возможно назвать лишь ценовой интервал, в который может вписаться проект. Точная стоимость утверждается только после детального обсуждения заказа и объема работ[Если студию и заказчика разделяют сотни километров, то, как правило, речь идет о поиске способа перевода денег с наименьшей комиссией за перевод]. После получения аванса менеджеры могут попросить заказчика составить техническое задание, в котором должно быть подробно описано, что и как делать (структура, система навигации, предпочтения по стилю и цветовой гамме будущего сайта, уже имеющиеся наработки и пр.). Возможно, что эту работу заказчик оставит на усмотрение студии. Кроме того, всегда полезно узнать у клиентов о необходимости создания или редизайна существующей графики – логотипа компании, иконок к программе и сопутствующей графики для сайта, ведь многие привыкли к своему нередко аляповатому, но милому сердцу дизайну. Необходимость в дополнительной графике обсуждается отдельно. Только после всего этого задание уходит к дизайнеру, и в дальнейшем уже он контактирует напрямую[Для устранения эффекта испорченного телефона] с клиентом.
Работа над проектом содержит несколько этапов: планирование, разработка интерфейса (структура проекта, система навигации), графическое воплощение (разработка дизайн-макета), верстка макета – воплощение дизайнерских мыслей при помощи различных технологий, внутреннее тестирование системы, сдача работы заказчику и последующая корректировка по его замечаниям. Все эти этапы обязательны. Но в зависимости от обстоятельств в процессе разработки могут появляться и иные шаги – например, разработка нового контента, корректировка уже имеющегося, редизайн корпоративной символики (так называемое corporate identity) и т. д.
Если у вас возник вопрос, связанный с веб-программированием (PHP, Perl, JavaScript), обращайтесь на форумы WebMastak.com или на форум WebScript.Ru (forums.webscript.ru), – кто-нибудь, разбирающийся в той теме, которая вас интересует, обязательно откликнется и поможет решить вашу проблему. Проверял на себе не раз.
Неплохой форум по Perl располагается на сайте Perl.dp.ua. На сайте много интересных материалов в разделе «PERLеводы» – переводы англоязычных статей.
//-- Главное – спокойствие --// На первом этапе производится анализ уже имеющихся наработок у заказчика – дизайн, контент, структура и пр. Исходя из этих наработок, определяется примерная структура и пути ее развития. Здесь задействуются все специалисты, которые в дальнейшем примут участие в разработке проекта. В результате складывается общая концепция, в которой предусмотрены черты будущего дизайна и структура проекта, но в словесных, метафорических формах.
На следующем этапе за дело берется специалист по проектированию пользовательских интерфейсов. Его задача – спроектировать максимально прозрачную, доступную и понятную структуру проекта для конечного потребителя продукта – не для заказчика, а именно для посетителей ресурса, которые будут пользоваться им для решения своих задач. Под системой взаимодействия нужно понимать не только удобство пользования (часто по ошибке называемое «юзабилити»[На самом деле, этот термин более общий: «usability» (англ. «удобство пользования») – это не только удобство пользования сайтом, но и степень соответствия содержимого сайта потребностям целевой аудитории, организация системы обратной связи с посетителями и др.]), но и общую ясность, легкость восприятия. Сюда в первую очередь нужно отнести максимально четкую группировку контента по разделам, рубрикам, блокам и т. п. Кроме того, нужно ясно представлять технические аспекты реализации системы навигации проекта – лишь тогда можно переходить к следующему этапу (поэтому дизайнеры всегда должны быть в курсе последних технологий для реализации своих красивых задумок).
На RealCodingсобрана информация о HTML, CSS, JavaScript, PHP, Perl, WAP, а также учебники по этим темам. На форумах forums.realcoding.net много интересных сообщений, присланных посетителями сайта.На Codenet веб-разработкам посвящен довольно большой раздел , касающийся PHP, ASP, Perl, Apache, Microsoft IIS, SSI, Java, JavaScript, VBScript – и это далеко не полный перечень. На форуме forum.codenet.ru вы можете задать вопрос, который, возможно, войдет в перечень вопросов и ответов (FAQ), публикуемых на www.codenet.ru/webmast/faq. А еще на сайте имеется довольно интересная рассылка. Советую подписаться.
Графический дизайнер разрабатывает дизайн-макет будущей системы, то есть изображение, включающее в себя все возможные варианты заголовков, блоков, навигации, рубрик. Для больших проектов делается несколько вариантов таких макетов: для главной страницы, для внутренних страниц, для точек входа в различные подсистемы, в том числе недоступные рядовому пользователю. После внутреннего утверждения эти макеты предъявляются заказчику. И с учетом его пожеланий – дорабатываются и согласуются окончательно.
Далее наступает самая объемная (по времени) работа – верстка разработанных макетов. На предыдущем этапе у графического дизайнера были выработаны правила построения композиции страниц, заголовков и прочих блоков. На основе этих правил разрабатывается так называемый внутренней «гайд-лайн» – краткое руководство по оформлению тех или иных элементов, которые понадобятся при верстке страниц проекта. Это руководство может (и должно) быть оформлено документально и после завершения работы – передано заказчику, чтобы расширение проекта в дальнейшем не выбивалось из общего стиля сайта. Это особенно важно для крупных проектов.
Далее наступает пора технического воплощения. Его длительность зависит от объема актуального контента проекта. Тут может быть задействовано большое количество работников (даже внештатных): от html-кодеров до flash-технологов, программистов и пр. Целесообразность применения той или иной технологии обсуждается как на внутренних дискуссиях, так и с заказчиком.
После того как проект теоретически готов к «потреблению» конечным пользователем, наступает очень важный этап внутреннего тестирования. Вся система настраивается на внутреннем тест-сервере и тщательно проверяется как самими разработчиками, так и сторонними тестерами. Как правило, находится некоторое количество огрехов в пользовательском интерфейсе, нередки ошибки в реализации. При грамотном планировании их устранение не вызывает глобальных изменений ни в коде, ни в структуре сайта.
Наконец бета-версия проекта предъявляется заказчику, который должен решить – проводить независимое тестирование или нет. Венец всему – финальная фаза согласования. После удовлетворения всех пожеланий заказчика ему передается необходимый набор материалов для самостоятельной настройки и поддержки проекта.
//-- Стандарт хорош, если он актуален --// Много людей последнее время стараются гнаться за модой, за последними стандартами, правилами. В мире веб-разработок существует один весомый игрок по имени W3Org. Эта организация разрабатывает новые стандарты для многих технологий, применяемых в веб-строительстве: html, css, DOM, xhtml и многих других. Некоторые разработчики слишком ревностно относятся к появлению новых стандартов, норм и технологий и стараются при первой же возможности выдать заказчику проект с применением всех этих разработок. Бывает наоборот, заказчик требует, чтобы его проект «был на самом острие технологий». Но появление новых стандартов не означает однозначное их соблюдение пользовательскими клиентами (браузерами). Мир разработки ПО достаточно консервативен, особенно в области веб-клиентов. Часто приходится слышать от разработчиков ворчание в духе: «браузер XXX настолько плох, что не поддерживает последнюю спецификацию CSS 3.0, а вот бета-версия YYY, по заявлению разработчиков, – поддерживает!» Такие высказывания абсолютно бессмысленны. У разработчика есть выбор в инструментарии, а вот конечному пользователю нет никакого дела до инструментов, которыми был реализован данный проект. Пользователь хочет, чтобы все работало на том ПО (в данном случае браузере) с которым он привык обращаться, а как это работает, ему знать не хочется – он пользователь! Дорогие разработчики, переходя на новые стандарты, десять раз подумайте: стоит ли игра со стандартами свеч, потраченных на «просвещение» пользователей. Возможно, старые протоптанные дороги приведут, как ни странно, к более качественному исполнению заказа.
Terralab.ru: Железный поток
HP выпустила два новых фотопринтера DeskJet 5440 и 5940, а также МФУ OfficeJet 5610. Первый принтер, ориентированный на домашнее применение, печатает как в 4-цветном, так и в 6-цветном режимах, затрачивая на снимок формата 10x15 не более 27 секунд. Скорость печати цветных и черно-белых документов – 21 и 22 стр./мин. Второй принтер с теми же скоростными показателями фотопечати лучше «заточен» под работу с документами: 24 стр./мин. в цвете и 30 стр./мин. в монохромном режиме. Обе модели имеют 100-страничный лоток для бумаги и поддерживают технологии автоматической обработки изображений HP Real Life. Комбайн OfficeJet 5610 All-in-One позиционируется как рабочая лошадка для офисных нужд. Он имеет функции сканера (1200x4800 dpi, 48-битный цвет), копира и факса с защитой от спама (с использованием автоопределителя номера и специального «junk fax» барьера). Управление осуществляется при помощи 2-строчного текстового ЖКИ.
//-- *** --// Новую SLR-камеру представила и фирма Pentax – чуть-чуть подправленную версию *istDS под названием *istDS2. В ней установлен ЖК-экран большего размера – 2,5 дюйма (210 тыс. пикселов). Ожидаете еще каких-нибудь отличий? А это все… Вторая новинка – 6-Мп Optio S60 c 3-кратным оптическим зумом, 2,5-дюймовым экраном. Выбор режима съемки может производиться специальным кольцом, а неопытные пользователи порадуются функции Auto Select, автоматически выбирающей все настройки при указании одного из четырех режимов.
//-- *** --// BenQ представила внешний DVD-привод EW164B с интерфейсом USB 2.0. Фирменная технология SolidBurn позволяет увеличивать скорость записи, сохраняя приемлемое качество, причем привод можно «разгонять» до нештатных скоростей с помощью специальной утилиты. Новинка поддерживает оба формата, а также двухслойные диски DVD+R DL и DVD-R DL (скорости соответственно 8x и 4x). Чтение и запись всех DVD-форматов производится на скорости 16x, перезапись DVD+/—RW – на 8x для «плюса» и 6x для «минуса». Скорости CD – 48x/32x/48x.
//-- *** --// Появились в продаже новые MP3-плейеры фирмы Iriver. Спортивная модель Т10 ($145—250) представлена в трех цветовых вариантах, причем цвет отражает объем флэш-памяти – лайм (256 Мбайт), красный (512 Мбайт) и оранжевый (1 Гбайт). Помимо MP3 и WMA, Т10 поддерживает форматы ASF и OGG. Он оснащен 1-дюймовым цветным ЖК-экраном, на который выводится информация о треках, изображения (BMP) и скринсейверы (коих вшито три). Плейер имеет пользовательский режим эквалайзера и десять фабричных предустановок, поддерживает SRS WOW. Кроме того, есть FM-тюнер, таймер, будильник и функция диктофона. У второй флэш-модели, T30 в компактном металлическом корпусе (64x32x22 мм, 27 г), те же варианты объема памяти. Дисплей – четырехстрочный с голубой подсветкой.
//-- *** --// Ноутбуки-трансформеры еще рано списывать со счетов как тупиковую ветвь эволюции мобильных ПК. Об этом наглядно свидетельствует то, что они тихой сапой продолжают совершенствоваться – хотя бы таким идейным энтузиастом планшетников, как Fujitsu. Серия Fujitsu LifeBook T4000 (см. «КТ» #563) пополнилась вариантом T4020. Покупателям предоставляется выбор из трех 12,1-дюймовых ЖК-матриц: две (с разрешением 1024x768 и 1400x1050) для работы в помещениях и одна (1024x768) для работы на открытом воздухе. Компьютер, построенный на интегрированном чипсете Intel 915GM и процессоре Pentium M ULV 740/760 (1,73/2 ГГц), оснащается от 256 Мбайт до 2 Гбайт памяти DDR2 (два разъема). Накопители: жесткий диск (5400 об./мин., 40—80 Гбайт) с интерфейсом SATA и опционный DVD-привод в многофункциональном отсеке. Другие опции: модуль Bluetooth, дактилоскопический сенсор и адаптер беспроводных сетей (либо от Intel, либо от Atheros). Не забывает Fujitsu и о чисто планшетных ПК. В серии Stylistic ST5000 вышли две новинки: ST5031 c 10,4-дюймовым отражательным дисплеем (Reflective FL) и ST5032 со стандартным 12,1-дюймовым (1024x768). Чипсет, память и жесткий диск здесь такие же, как в вышеописанной LifeBook, но процессор послабее: Pentium ULV 753 (1,2 ГГц на 400-МГц шине). Следует отметить встроенный TPM (Trusted Platform Module), считыватель отпечатков пальцев и разъем для смарт-карт.
//-- *** --// //-- *** --// К осеннему сезону Canon подошла со всей серьезностью: выпущено так много новинок, что рассказать в небольших заметках обо всех из них не удастся. Попытаемся, однако, не упустить главного и начнем с тяжелой артиллерии. Цифровая зеркальная камера EOS-1D Mark II N унаследовала от Mark II 8,2-Мп сенсор. Размер экрана увеличился до 2,5 дюймов (230 тысяч пикселов). Благодаря разъемам CF и SD, новая модель позволяет раздельно записывать снимки в форматах JPEG и RAW. Еще одна SLR-камера – EOS 5D – оснащена 12,8-Мп КМОП-сенсором, имеющим размер 35-мм кадра (точно: 35,8x23,9 мм), 2,5-дюймовым ЖК-экраном и новой 9-точечной системой автофокусировки. Среди ультракомпактных камер вышли Digital IXUS i zoom, 55 и 750. Первые две имеют 5-Мп сенсор, третья – 7,1-Мп. Модель "i" впервые заимела объектив с переменным фокусным расстоянием (2,4x, 38—90 мм в эквиваленте). Две другие могут похвастать 3-кратным оптическим приближением, 2,5-дюймовым ЖК-экраном и современными возможности видеосъемки (640x480@30). Наконец, PowerShot: здесь в серии S появился новый флагман S80 с 8-Мп сенсором, 3,6-кратным трансфокатором (28—100 мм) и 2,5-дюймовым экраном. Впервые в компакт-камере использован орган управления Multi Control Dial, знакомый пользователям EOS. Что касается сроков появления новинок на российском рынке, то все эти модели мы вскоре сможем приобрести у официальных дилеров. Ориентировочные цены будут составлять: EOS-1D MARK II N – $4000, EOS-5D – $4100, на компактные модели цены на данный момент не известны.
//-- *** --// Gigabyte, заручившись поддержкой nVidia и AMD, взялась продвигать SLI в массы и выпустила две мэйнстримные материнские платы на чипсете nForce 4 SLI: GA-K8N Pro-SLI и GA-K8N-SLI. По характеристикам они очень похожи, только вторая лишена порта Firewire и технологии Dual BIOS. Обе поддерживают Athlon x 2 64 FX для Socket 939, двухканальную память DDR400, имеют порт Gigabit Ethernet и, конечно же, оснащены двумя разъемами PCI-E x16 с поддержкой SLI. Жесткие диски могут подключаться через четыре порта SATA-2 и два PATA 133. Видеокарты для массового SLI тоже есть: GV-NX66128DP (GeForce 6000, частоты 450/500 МГц для процессора/памяти, 8 конвейеров) и GV-NX66L128DP (GeForce 6000 LE, 400/500 МГц, 4 конвейера). Карты имеют по 128 Мбайт памяти, пассивное охлаждение (Silent Pipe), выходы D-SUB, TV, DVI-I.
//-- *** --//
Расстаралась и фирма Logitech, выпустившая с небольшим интервалом две кучки новинок – устройств ввода и аудиоустройств. Среди первых – геймерская клавиатура G15 ($80) со встроенным ЖК-дисплеем и восемнадцатью программируемыми клавишами. Дисплей предназначен для отображения игровой информации (очки, время, тонус и т. п.). Набор Cordless Desktop S 510 Media Remote ($80) состоит из беспроводной клавиатуры, мыши (800 dpi, колесико Tilt Wheel Plus Zoom) и компьютерного пульта ДУ. Набор подключается по 27-МГц каналу и действует в радиусе 5 метров. Еще один комплект diNovo Media Desktop Laser ($200) включает лазерную мышь MX1000 и работает по технологии Bluetooth 2.0 EDR (Enhanced Data Rate), поддерживая функцию разветвителя. Упомянем также беспроводные лазерные мыши G7 и G5 с разрешением 2000 dpi (настраивается «на лету» до 400 dpi). Среди аудиоустройств появились колонки для ноутбуков V20 ($80) с подключением по USB. Сателлиты имеют складную подставку и поставляются с кожухом для переноски. Еще одна новинка из той же категории – беспроводной аудиомост Wireless Music System for PC ($80, просто удивительна трогательная привязанность фирмы к этой цифре): к компьютеру подключается трансмиттер для USB-порта, а ресивер вставляется в порт RCA или 3,5-мм разъем обычной аудиосистемы. Максимальное рабочее расстояние – 100 метров. Wireless Music System for iPod ($150) – вариация, в которой трансмиттер подключается к аналоговому выходу на наушники любого плейера, дальность – 10 метров. Наконец, Wireless Headphones for PC ($130) – набор из трансмиттера для USB-порта и наушников со встроенным ресивером (дальность – 50 метров).
//-- *** --// Panasonic пополнила серию Lumix четырьмя камерами. В этом году фирма оснащает все модели этой серии своей гордостью – оптическим стабилизатором изображения Mega O.I.S. Начнем с 8-мегапиксельной Lumix DMC-FZ30, в которой используется усовершенствованный объектив Leica DC Vario-Elmarit с 12-кратным зумом (35—420 мм в 35-мм эквиваленте). В дополнение к кольцу ручной фокусировки камера заимела кольцо ручного приближения, а также улучшенный свободно поворачивающийся ЖК-экран. По желанию можно докупить конверсионные объективы (теле– и широкоугольный), дистанционный спуск затвора и пр. Любопытна также компакт-камера с полнофункциональным ручным управлением Lumix DMC-LX1GC-S. В ней используется 8,4-Мп ПЗС-матрица с отношением сторон 16:9. Широкоугольный объектив обеспечивает 4-кратное приближение (28—112 мм в эквиваленте). Отметим уникальную возможность записи видео в широкоформатном VGA-формате (848x480) при 30 кадрах в секунду. Ручные настройки (фокусировка, экспозиция) делаются нетривиальным способом – при помощи джойстика и курсора, а нажатие и удерживание джойстика выводит на экран меню установки. Оставшиеся две компакт-камеры, 5-Мп Lumix DMC-FX8 и 6-Мп Lumix DMC-FX9 – это мэйнстрим с 3-кратным трансфокатором, 2,5-дюймовым ЖК-экраном и полноценным видео (640x480@30 MJPEG).
НОВОСТИ: Зловещая тень испанки
Птичий грипп пришел в Россию и, по неподтвержденным пока данным, распространяется дальше в Европу. Проблема не только сельскохозяйственная: эксперты Всемирной организации здравоохранения продолжают рассматривать заболевание как мину замедленного действия, способную взорваться небывалой человеческой эпидемией – куда более сильной, чем вызывают обычные, «людские» вирусы гриппа.
В 1918 году на мир обрушилась испанка – пандемия гриппа, превзошедшая по смертоносности периоды разгара средневековой чумы. Переболела половина из тогдашнего двухмиллиардного населения планеты, число умерших оценивается в 20—40 миллионов – больше, чем унесли поля сражений Первой мировой. И пришла болезнь, скорее всего, как и сейчас, с Дальнего Востока; просто испанцы первыми забили тревогу. Современные исследования (вирусные частицы были добыты из сохраненных в формалине тканей жертв 1918 года) свидетельствуют, что вирус испанки – птичьего происхождения. О том, как вирусы гриппа циркулируют в природе, почему могут ломать межвидовые барьеры и обрушиваться всей мощью своей новизны на неадаптированный к ним вид, на страницах журнала уже рассказывалось (см."КТ" #560). Наглядно продемонстрировала, как все это бывает, исследовательская команда д-ра Йошихиро Каваоки (Yoshihiro Kawaoka) из Висконсинского университета. В условиях строжайшей безопасности к геному штамма, обычно безвредного для мышей, была добавлена пара генов вируса «испанки». Животные погибли от тяжелейшей пневмонии.
С декабря 2003-го птичий грипп унес больше пятидесяти человеческих жизней, и самое угрожающее в этом заболевании – близкая к 100% летальность. Однако пока инфекция передается от птиц к людям, но не переходит от человека к человеку, ситуация в какой-то мере под контролем. Специалисты же опасаются, что даже незначительные мутации возбудителя могут усилить его заразность. Концентрация населения в мегаполисах и развитые транспортные сообщения сыграли бы в таком случае самую неблагоприятную роль. Кто-то уверен, что миллионы погибших, разрушенные экономики, всеобщий хаос – это не пересказ очередного голливудского блокбастера, а действительно возможный сценарий. Кто-то выражает скепсис, уже устав, как в притче, от криков «волки, волки!». Как бы то ни было, в этом году британские врачи получат пятидесятистраничную инструкцию, касающуюся идентификации и ограничения распространения птичьего гриппа. США, Великобритания и другие зарубежные страны объявляют о планах создания запасов из миллионов доз вакцины. Однако неизвестно, как она будет работать в случае пандемии – по-настоящему эффективная вакцинация должна быть направлена против конкретного суперпатогенного штамма, которого (к нашему счастью) мутации пока не создали.
Творцы информационных технологий откликаются на вызов времени. Новейшее программное обеспечение будет использовано в британском университете Бас для создания невиданного по эффективности противовирусного препарата из класса ингибиторов нейраминидаз. Возбудитель современной волны птичьего гриппа обозначается H5N1, что значит вирус с гемагглютинином пятого типа и нейраминидазой первого типа. Оба «вынесенных в заголовок» белка имеют отношение к проникновению вируса в клетку. Гемагглютинины обеспечивают связывание вирусных частиц с расположенными на поверхности клетки гликопротеидами, а нейраминидаза (сиалидаза) вызывает их гидролиз по остаткам сиаловой (ацетилнейраминовой) кислоты. Группа профессора Яна Вильямса (Ian Williams) создает объемные модели активного центра нейраминидазы, которые позволили бы фармакологам отойти от привычного метода проб и ошибок и целенаправленно разработать противовирусную «золотую пулю» – высокоспецифичное лекарство, связывающееся с ферментом и не позволяющее ему атаковать сиаловую кислоту. Остается только пожелать, чтобы никогда не возникло необходимости применить замечательную новую технологию по изначальному назначению – против пандемии.
КАФЕДРА ВАННАХА: Классическая философия и бизнес
Кажется, что нет ничего более далекого от проблем делового человека, нежели классическая, по преимуществу европейская философия. Но вот удивительно успешная реализация одного из самых быстро развивающихся изделий ИТ-отрасли в значительной степени основана на эксплуатации проблем, традиционно проходящих по ведомству брадатых любомудров.
Картинка с натуры лета 2005 года. Владелец фотографической мини-лаборатории в самом центре полумиллионного города намерен переделать свой бизнес в распивочную и ворчит на коррумпированных чиновников и несознательных, встающих грудью на пути развития российского капитализма жильцов, не позволяющих учинить оное.
А у владельца сети продаж цифровых камер таковые расходятся, как горячие пирожки. Открывает по отделу в каждом из открывающихся в городе торговых центров. Но резкий рост числа проданных камер и еще более крутой, степенной, подъем числа сделанных ими снимков не сопровождается повышением числа заказанных в минилабах отпечатков. И огромное количество часов цифрового видео редко доводится «до ума» в виде смонтированного DVD-диска.
Но снимают-то очень много! И, соответственно, покупают массу цифрового оборудования. Почему?
Вернемся к античности – началу начал. Из хаоса рождается Уран, Небо, наделенное бесконечной плодовитостью. Он может породить ВСЕ – апофеоз абсолютной свободы.
Но Крон, Хронос, Сатурн, Беспощадное Время, своим серпом скопит Урана. Самый страшный враг свободы – время. Ему подвластны все в имманентном мире. Перед ним бессильно склонялись и герои, и божества античности. Последнее средство его отрицающей силы – смерть.
И человек, в его повседневной жизни. Вот, кажется, перед ним множество счастливых возможностей. Но реализуются из них немногие. И даже те, что сбылись, неумолимо утекают в никуда.
Но ведь «радость жаждет вечности». «Счастливые часов не наблюдают». Поэтому одна из важнейших задач мысли – найти в памяти опору для свободы, для преодоления времени. Это имел в виду создатель классической философии Георг Фридрих Вильгельм Гегель, говоря об Errinerung, удержании, в завершении «Феноменологии духа».
От автора мифа об Орфее до экзистенциалиста Марселя Пруста (автора эпопеи «В поисках утраченного времени») все философы видели счастье в temps retrouve, в обретении прошедшего времени. Именно преодоление temps perdu, потерянного времени, и является краеугольным камнем свободы.
А вот цифровая фотография возвращает минувшее время лучше всего. Даже в низком, бюджетном обличии. Почему?
Да потому, что большую часть информации человек воспринимает визуально.
А цифровая камера – самый дешевый способ сохранения изображений. Самая эффективная опора памяти. Расходы на одну картинку в компьютерной памяти неудержимо стремятся к нулю. Первые шаги младенца, первый удар по мячу, первая встреча с рекой или морем… Все вырывается из под власти времени.
И еще – можно снимать не только то, что для тебя ценно, своего ребенка, своего кота, но и все, что привлечет внимание, покажется красивым. Красивым просто потому, что совершенно.
Картинка-то не стоит почти ничего.
И все обладатели цифровых камер замечают, что начинают фотографировать БОЛЬШЕ.
Характер изображения у цифровых камер с маленькой, сантиметровой матрицей?
Да, он действительно другой.
Здесь дело не в несовершенстве технологий, не в шуме пикселов. Эти проблемы сейчас успешно преодолеваются.
Характер изображения на маленьком кадре принципиально другой. Это обусловлено более низкой плотностью энергии в фокальной плоскости, большей ролью ВОЛН, а не корпускул в формировании изображения. Это не зависит от числа пикселов. Худшая проработка деталей в тенях есть особенность малого кадра.
Но зато – фантастическая глубина резкости. Не выделить деталь размытием фона, но ведь можно передать объем цветами – теплые визуально идут к нам, холодные – убегают. Или передать перспективу, найдя подходящие линии. К примеру, паркет в музее, где так славно снимать именно камерой с маленькой матрицей. Приемлемыми выходят все кадры.
И этих кадров делают все больше и больше.
Не для того, чтобы, окантовав, украсить ими стены. И даже, часто, не для того, чтобы в компьютере, наладоннике или просто телефоне, показывать друзьям. Нет, протестуя против хода времени, уносящего мгновения жизни.
Похоже, что для большинства обладателей цифровых камер важен не итог, изображение. По-настоящему важен ПРОЦЕСС. То, что вырывает нечто, индивидуально ценное, из-под Хроноса. Сознание того, что мгновенье, хоть и не остановилось, но и не ушло совсем. Запечатлено в памяти фотокамеры, компьютера…
Может быть, но невероятно глубоко «зашитая» в нас. Видимо, неизбежное свойство сознания, являющегося отображением, рефлексией окружающего мира. И в помощь ему, сознанию, бьющемуся над решением проблемы, озадачивавшей поколения мудрецов, ИТ-отрасль представляет дополнительные, цифровые, почти что магические «зеркала», замораживающие время.
Но за эту мнимость потребители платят вполне реальные деньги (очень и очень приличные), коммерчески эксплуатируя не пищеварительно-репродуктивную систему, а самый глубокий слой философских проблем. И к тому же двигая дальше хайтековый фронтир!
Terralab.ru: Материнская плата ECS K8T890-A
Инженеры Elitegroup Computer Systems недостатком изобретательской фантазии не страдают. Это непреложный факт. О богатстве продуктовой линейки красноречиво говорят длиннющие стенды этой компании на компьютерных выставках, а в арсенале ECS есть просто уникальные модели. Из последних новинок такого рода нельзя не вспомнить плату ECS PF88 Extreme Hybrid, поддерживающую процессоры… от обоих конкурирующих производителей. Построенная на чипсете SiS656, она имеет лишь процессорный разъем LGA775. Однако тем, кто решит сменить Pentium на Athlon 64, потребуется всего-навсего установить в специализированный PCI-Express-слот плату расширения ECS SIMA A9S, на которой уместился необходимый и достаточный набор компонентов для AMD-платформы – Socket 939, пара DDR-разъемов в непосредственной близости от сокета и одночиповый «чипсет» SiS756. Причем, что особенно любопытно, производительность в таком «гибридном» режиме не уступает производительности самостоятельных плат на топовых чипсетах nForce 4 Ultra и K8T890, даже в программах, связанных с активным обменом данными через графическую шину.
//-- *** --// На широкое распространение такая экзотика, конечно же, не претендует, зато вторую новинку, тоже ориентированную на апгрейд, можно позиционировать вполне четко – ECS K8T890-A адресована тем, кто собрался обновить платформу (процессор с материнской платой), а все остальное компоненты, в том числе старую видеокарту под AGP, хотел бы сохранить. И, главное, иметь в будущем возможность поставить PCI-Express-видеокарту. Случай не такой уж редкий, если не сказать, типичный. Видеокарты сейчас недешевы; даже не хватающие звезд с небес представители «золотой середины», чьей производительности едва хватает на поддержку последних игр в достойном разрешении, тянут на добрые $250. Процессорозависимость игр неуклонно растет, и существенно сэкономить на платформе тоже не удастся.
Один из способов растянуть затраты во времени – плавная миграция. Сначала обновляем платформу и живем со старой видеокартой, пока не накопим денег на последнее видеографическое чудо. Именно в такой ситуации может пригодиться плата ECS K8T890-A с двумя графическими портами – PCI-Express 16x и фирменным AGP-Express 8x. Словечко «Express» добавилось к AGP неспроста, поскольку совместимость обеспечивается не на уровне чипсета (он поддерживает лишь PCI-Express), а дискретным мостом от ICS. Как следствие, полной универсальности плата не гарантирует, причем ориентироваться по официальному списку совместимости практически бесполезно – актуальные для России брэнды в нем редкие гости. Экспериментальным путем было установлено, что плата уверенно работает с видеокартами на графических процессорах поколения Radeon 9x00 и GeForce FX, тогда как более свежие экземпляры поддерживаются неохотно. Нам, в частности, не удалось запустить плату совместно с видеокартами Sapphire на Radeon X800XT (c интегрированной в GPU поддержкой AGP) и Radeon X800 (с внешним мостом с PCI-Express на AGP). Что, однако, огорчает не сильно – если вы уже приобрели видеокарту последнего поколения, но с AGP-интерфейсом, переходить на PCI-Express в обозримом будущем резона нет. Смело берите материнскую плату на чипсете K8T800 или nForce 3 250, а пропускной способности порта AGP 8x еще долго будет за глаза хватать всем заинтересованным в 3D-графике приложениям. Порукой тому – AGP-версии на новых графических процессорах, выходящие наравне с версиями под PCI-Express.
Чем еще примечательна эта плата? Она основана на обновленной ревизии чипсета K8T890 (A3), поддерживающей как одноядерные семейства Athlon 64/64 FX, так и двухъядерники Athlon 64 X2. Как известно, на момент выпуска AMD двухъядерных процессоров чипсет K8T890 оказался единственным, у кого возникли проблемы с их поддержкой, хотя даже более ранний K8T800 и все остальные чипсеты от SiS, VIA и ULi, встречающиеся на платах с Socket 939, проверку на совместимость прошли без сучка без задоринки.
//-- *** --// Претензии к компоновке можно предъявить только в части расположения PATA-разъемов. Вам не удастся отсоединить винчестер при установленной AGP-видеокарте (а возможно, и вовсе не удастся воспользоваться одним из этих разъемов, если система охлаждения видеокарты не из компактных). В остальном придраться не к чему – свободное пространство вокруг процессорного гнезда позволяет установить даже самые крупные из современных кулеров, радует четкая цветовая маркировка разъемов и «иголок» в разъеме для подключения корпусных кнопок и лампочек. Интегрированная поддержка звука основывается на распространенном чипе ALC655 и ничем особенным не отличается. Для подсоединения шестиканальной аудиосистемы микрофонный разъем и линейный вход переключаются в режим выходов для тыловых колонок и сабвуфер/центр, что является самым распространенным вариантом. Ограниченный контингент пользователей может огорчить наличие лишь двух слотов для модулей памяти и отсутствие «разгонных» настроек в BIOS. А вот полностью пассивное охлаждение чипсета – факт отрадный. Радиатор на северном мосту греется довольно сильно, но тепловыделение у наборов от VIA относительно низкое, поэтому перегрев плате явно не грозит, зато акустический комфорт обещает оставаться на высоте.
Средня цена ECS K8T800-A по Москве составляет $ 75.
НОВОСТИ: Микрофишки
Под давлением конкурентов производитель плейеров Rio, японская компания D&M Holdings (ей также принадлежат брэнды Denon и Marantz) объявила о закрытии подразделения по разработке и производству цифровых плейеров. История брэнда Rio восходит к 1998 году. Первые модели от Diamond Multimedia стали объектом инициированного RIAA судебного разбирательства, поскольку позволяли проигрывать незащищенные mp3-файлы (победа Diamond в этом процессе отчасти поспособствовала легализации некогда «исключительно пиратского» формата). Впоследствии Diamond Multimedia была приобретена компанией S3, переродилась в Sonicblue и в начале 2003-го перешла к D&M Holdings. Хотя плейеры Rio больше выпускаться не будут, компания продолжит техническую поддержку ранее выпущенных гаджетов. – Т.Б.
//-- *** --// Sony продолжает свой бесконечный крестовый поход против iPod: в конце сентября появится новое поколение плейеров Walkman. Выпуская цифровой плейер, мало чем отличающийся от массы аналогичных устройств на базе флэш-памяти, Sony рассчитывает на эффект дежа вю. Корпус Walkman Bean выполнен в форме фасолины: похожий вид имел кассетник Walkman, анонсированный с десяток лет назад. Та модель побила все рекорды продаж среди молодежи – тяга молодых людей ко всему необычному и оригинальному давно известна. Теперь с помощью «бобовых» Sony рассчитывает привлечь к цифровой музыке новую аудиторию – в частности, наиболее консервативную категорию клиентов – женщин «в возрасте». – Т.Б.
//-- *** --// Закончилось судебное разбирательство по поводу бракованных аккумуляторных батарей плейеров iPod. Владельцы iPod первого и второго поколений получат возмещение в виде купонов на 25 и 50 долларов соответственно, которые можно будет «отоварить» в магазинах Apple до 30 сентября. Некачественные батарейки обойдутся Apple, по словам юристов компании, в 15 млн. долларов. – Т.Б.
//-- *** --// Rockstar выпустила специальную заплатку, которая удаляет из Grand Theft Auto: San Andreas весь скандальный контент, обнаруженный при помощи патча Hot Coffee. Кроме того, компания печатает новый тираж игры с вырезанными «откровенными» сценами. Таким образом, GTA SA все же сохранит рейтинг 17+. – Т.Б.
//-- *** --// По данным Китайской ассоциации контроля над курением, от болезней, так или иначе связанных с этой вредной привычкой, в Поднебесной каждый год умирает 1,2 млн. человек. В августе Китай (самый крупный потребитель табачных изделий в мире) ратифицировал подписанную еще в 2003 году Рамочную конвенцию Всемирной организации здравоохранения по контролю над табаком. В результате менее чем за две недели на территории страны были демонтированы все (несколько десятков тысяч) автоматы по продаже сигарет. – Т.Б.
//-- *** --// На рассмотрение в VESA поступили спецификации интерфейса DisplayPort, который должен заменить «выдохшихся старичков» VGA и DVI. В разработке новинки участвовали такие крупные компании, как ATI, Dell, Hewlett-Packard, nVidia, Samsung, Philips и др. DisplayPort, призванный упростить соединение ПК с устройствами отображения (будь то монитор, проектор или телевизор), позволит передавать по одному кабелю видео– и аудиосигнал со скоростью до 10,8 Гбит/с. Кроме того, спецификации предусматривают некую DRM-технологию, ограничивающую просмотр на экране неавторизованного контента. Если интерфейс будет одобрен, первые устройства с его поддержкой появятся в продаже в следующем году. – А.З.
//-- *** --// Hitachi представила DVD/HDD-видеорекордер с накопителем емкостью 1 Тбайт (68 часов записи HDTV-сигнала). – Т.Б.
//-- *** --// Многочисленные шуточки о «непрофильном» использовании вибросигнала в мобильном телефоне наконец воплотились в жизнь. Мидлет Phone Purr легко превратит почти любой телефон в персональный массажер с несколькими режимами работы и таймером. Релаксировать можно и на пару с кем-нибудь: при желании все изменения в настройках программы будут транслироваться по SMS на выбранный номер (для этого, конечно, необходимо, чтобы ваш визави тоже установил у себя Phone Purr). – А.З.
//-- *** --// Малайзийским копам дозволено проверять мобильники граждан страны на предмет наличия порнографических картинок и видеозаписей. В мусульманской Малайзии запрещена не только порнография, но даже сцены с поцелуями – распространителям подобного контента грозит до пяти лет тюрьмы. Однако любителям «мобильной клубнички» пока бояться нечего. Полицейским предписано лишь стирать порочный контент и делать нарушителям морали устное предупреждение. – Т.Б.
//-- *** --// Китайская фирма PowerNet Technology и Коммунистический союз молодежи Китая разработали онлайновую игру Anti-Japan War Online. Сюжет антияпонского толка позволяет вернуться к военным действиям 1937—45 гг. и разбить захватчиков. Игрушка появилась в ответ на выход в Японии учебников, где события тех времен трактуются в выгодном для Страны восходящего солнца свете. – Т.Б.
ТЕМА НОМЕРА: На том стоим
Всемирная сеть Internet существует с 1961 года. И уже в те времена начались эксперименты по индексированию и выборке данных, но удовлетворительные результаты появились далеко не сразу. Только в 1991 году Поль Линдер (Paul Linder) и Марк П. Маккэхил (Mark P. McCahill) из университета Миннесоты создали технологию Gopher, которая стала непосредственной предшественницей WWW. В 1992 году была создана всемирная информационная сеть World Wide Web, или просто Web (паутина). Ее основой является концепция гипертекста, сформулированная Тедом Нельсоном еще в 1974 году.
Вместе с вебом пришли три новые технологии:
HTML – язык разметки гипертекста, который служит для создания веб-страниц.
HTTP – протокол передачи гипертекста, предназначенный для пересылки веб-страниц с сервера пользователям.
Веб-браузер, необходимый для отображения веб-страниц на мониторе пользователя.
HTML вырос из более сложного языка – SGML (Single Generalized Markup Language).
//-- Необходимость CMS --// В начале развития WWW подавляющее большинство сайтов были статическими, так как страниц было немного. Однако по мере роста количества страниц и WWW в целом все больше времени при обновлении страниц уходило на рутинную HTML-разметку (помимо добавления новой HTML-страницы требовалось вставить ссылки на других страницах). Обновление и даже мелкая корректировка внешнего представления страниц все чаще выливались в весьма сложное мероприятие. Постоянные публикации статей и новостей требовали кропотливого труда, а такие средства, как голосования, гостевые книги, доски объявлений, вообще находились за гранью возможного. Как следствие, назрела необходимость автоматизации представления данных пользователю. История управления контентом началась с управления документами в традиционном смысле этого слова, то есть обычными текстовыми файлами. По мере развития определения «документ» системы управления документами стали называть системами управления контентом или содержимым веб-ресурса. Само определение «управление контентом» поначалу прочно ассоциировалось с процессом публикации и обновления информации на веб-сайтах – требовалась технология, позволяющая следить за ее актуальностью. Применительно к организациям (фабрикам, заводам), оперирующим огромным количеством информации, уместно говорить уже о системах управления информационными ресурсами предприятия (Enterprise Content Management). В результате термин «Content management» расширился: им стали обозначать управление не только информацией на сайте, но и всеми разрозненными и разнообразными фрагментами корпоративной информации. В энциклопедии Wikipedia системой управления контентом названа система, применяемая для организации и упрощения совместного создания информации (проще говоря – пополнения базы данных группой лиц).
Сайт WebMastak.comсуществует около года, однако на нем можно найти немало полезных статей по веб-программированию на PHP, Perl и несколько сотен (!) о JavaScript, а также материалы по использованию таких интернет-технологий, как SSI и XML. Еще здесь есть такие интересные разделы, как «Оптимизация и продвижение сайта в Сети» и «Настройка веб-сервера Apache».
В рамках этого информационного ресурса существует несколько проектов – например, «ХостОбзор», посвященный выбору хостинга и регистрации доменных имен. Вы можете почитать статьи, сравнить предложения хостингов, получить информацию о киберсквоттинге.
Наверняка пригодится вам и небольшая, но активно пополняемая коллекция скриптов на PHP и Perl
//-- Структура CMS --// Функции, выполняемые системами управления содержимым, можно разделить на три основные группы:
Добавление – предоставление авторам удобных и привычных средств создания (добавления) контента на ресурс.
Публикация – автоматическое размещение информации на сайте и представление данных пользователю в едином внешнем представлении для всего сайта.
Редактирование данных, содержащихся на сайте.
CMS, как правило, обеспечивают хранение данных в едином репозитории (хранилище).
Существует несколько моделей, по которым строятся системы управления:
Модульная модель. Такие CMS представляют собой набор отдельных суб-CMS, каждая из которых управляет своим набором типов данных. Модули независимы и полностью отвечают за работу с документами данного типа. Зачастую такой принцип организации является самым удачным, так как расширять функциональность можно за счет добавления нового модуля, замены или редактирования существующего кода. Системы на основе описываемой модели наиболее популярны благодаря своей простоте. В качестве примера можно упомянуть PHPNuke и XOOPS.
Объектная модель. CMS этого типа работают с классами и объектами. Классы определяют структуру данных и набор атрибутов (свойств). Объект является экземпляром класса, его задача – хранить в себе реальные данные. Объект может наследовать свойства, содержание и поведение объектов, которые в них содержатся.
Существуют и другие модели, однако они распространены в гораздо меньшей степени.
При запросе какой-либо страницы выполняется программный код, обрабатывающий запрошенный тип данных. Он извлекает данные из хранилища (коим может быть база данных или файловая система), после чего собирает страницу на основе шаблонов и представляет ее пользователю. Благодаря системе шаблонов решается вопрос одновременного обновления сразу всех страниц (например, при необходимости редизайна), плюс – появляется возможность создания нескольких вариантов представления страниц.
CMS также различаются по месту хранения сгенерированных страниц:
Динамические. Страница формируется динамически, как только приходит запрос. Это самый ресурсоемкий вариант, поскольку движок работает постоянно. Если посетителей очень много, то возможно чрезмерное использование ресурсов сервера. Главное преимущество подобной схемы – каждый посетитель получает самый свежий вариант контента. Кроме того, возможна индивидуальная настройка страницы под каждого пользователя.
С динамической сборкой. Динамически собранная (после соответствующей команды) страница кэшируется до тех пор, пока для нее не приходит обновление (очередная команда на регенерацию). В этот момент кэш сбрасывается, и цикл повторяется. Возможно учитывать пользовательские предпочтения: страница каждый раз собирается динамически, но из статических (сгенерированных заранее) фрагментов. Если какой-либо фрагмент обновляется, то при следующем запросе он (один фрагмент, а не все вообще) будет перегенерирован и занесен в кэш.
Генерация статических страниц на основе динамических данных. При обновлении CMS перегенерирует все связанные страницы. Поэтому при запросе выдается уже сформированная статическая (возможно, собранная с помощью SSI[Server-Side Includes – включения на стороне сервера, то есть в страничку вставляются динамически сгенерированные сервером данные (например, IP-адрес посетителя и др.)]) страница.
Современное аппаратное обеспечение хостинг-провайдеров вполне может потянуть первый вариант даже для сильнопосещаемого ресурса. Однако при необходимости экономии ресурсов лучше применять два других.
Весьма и весьма полезен для новичков ресурс «Постройка.ру». Тут подробно рассказывается о создании сайтов, немало статей на тему «HTML», «Графика» и «Дизайн». Хорошо известен в Сети справочник, выходящий на этом сайте: «HTML: шаг за шагом». А еще есть такой раздел, как «Справочная»: определения различных терминов, связанных с Интернетом, разбиты по алфавиту. Самым интересным местом на «Постройке.ру» (по крайней мере, для меня) является форум. Здесь обсуждаются материалы, опубликованные на сайте, и не только. Кстати, оставив там ссылку на свой сайт, я в за несколько дней получил больше десятка отзывов.
//-- Классификация CMS --// За несколько лет системы управления содержимым веб-ресурсов значительно усовершенствовались. Их можно классифицировать по областям применения.
Порталы. Используются для информационных ресурсов, основной целью ставят максимальное упрощение публикации статей и новостей. Могут включать в себя нижеперечисленные типы CMS как самостоятельные модули. Наиболее известные представители данного класса: AngelineCMS, Bes-cms, CoolPHP, CPG-Nuke, вебZE, Xaraya, xNuke, XOOPS и др.
Движки без SQL. Это ответвление в разработке CMS развито относительно слабо, так как использование в качестве хранилища информации файлов вместо таблиц базы данных сопряжено с множеством труднорешаемых проблем (таких, как одновременная запись в один файл несколькими копиями скрипта)[Скрипт (от англ. Script) есть интерпретируемая (то есть не компилируемая заранее) программа]. Достоинство этих CMS – в доступности для модификации контента и возможности размещения на бесплатных хостингах[Хостинг (от англ. Hosting) – сервер сети, предоставляющий услуги размещения сайтов]. Есть несколько реализаций данной идеи: Cute News, DeeLight CMS, Progressive, SAPID.
Блог[Происходит от англ. weblog. То есть weblog – blog – блог. Русский термин – «сетевой дневник»] – это сайт, на котором находятся личные заметки автора. В основном заметками являются ссылки на сайты, которые кажутся владельцу ресурса наиболее интересными, и комментарии к ним. Блог может содержать не только ссылки, но и просто электронный дневник пользователя.
К этой категории можно отнести следующие CMS: b2evolution, bBlog, BLOG:CMS, MyPHPblog, Nucleus, pLog, pMachine Free, Serendipity, Textpattern, WordPress, XHP.
Уже ведутся дискуссии о том, кто же влиятельнее: СМИ или блоги? Например, в Штатах выходит телепередача о блогах.
Форумы – это инструмент для общения на сайте. Сообщения в форуме в чем-то похожи на почтовые – каждое из них имеет автора, тему и содержание. Но для того, чтобы отправить сообщение в форум, не нужна никакая дополнительная программа – нужно просто заполнить соответствующую форму на сайте. Принципиальное свойство форума заключается в том, что сообщения в нем объединены в треды (от англ. thread – «нить»). Когда вы отвечаете в форуме на чье-то сообщение, ваш ответ будет «привязан» к исходному сообщению.
К форумам, достойным внимания, можно причислить FUDforum, openBB, Phorum, phpBB, PunBB, W-Agora, XMB, Zorum, ExBB, IPB, vBulletin.
Магазины. К магазинам отнесем любой сайт, с которого можно заказать какой-либо товар. В данном случае в определение «товара» может входить абсолютно все, включая время доступа в Интернет, минуты сотовой связи. Абсолютное большинство интернет-магазинов являются нелегальными[Вопросы – к автору. – Прим. ред].
CMS, позволяющие создать виртуальный магазин: MyMarket, osc2nuke, osCommerce, Zen Cart.
Групповая работа (Groupware) – комплекс программного обеспечения, позволяющий организовать работу предприятия, отношения с клиентами и заказчиками в Интернете. Обычно представляет собой полностью или частично закрытую часть сайта с возможностью отслеживать сроки выполнения поставленных задач, распределение ролей и временных нормативов. Иногда можно выносить вопросы на обсуждения и решения вышестоящего руководства.
Как правило, пользуются следующими CMS: dotProject, eGroupWare, MoreGroupware, phpCollab, PHProjekt.
Обучение (e-Learning) – дистанционная форма обучения с использованием Интернета. Онлайновая форма обучения уже не один год является «маяком», на который ориентируются образовательные системы разных стран мира. Главным стратегическим направлением является быстрое обновление знаний и эффективное использование информации.
Таких систем немного: ATutor, Claroline, LogiCampus, Moodle, Segue, Site@School.
Базы знаний (KnowledgeBase) позволяют накапливать опыт множества разработчиков, работающих (или работавших) в какой-либо одной. Каждая такая база знаний имеет свою специфичную структуру, поэтому никаких общих решений на данный момент не предложено. Самая известная из существующих баз знаний – RFC[Request For Comment – запрос на комментирование. Обычно описание работы с каким-либо протоколом и т. п. Публикуется в виде небольшого документа – как правило, с примером программы].
Биллинг (Billing). Программное обеспечение, позволяющее провайдерам[Провайдер (от англ. Provider) – организация, предоставляющая какие-либо услуги (как правило, информационные)] и реселлерам[Реселлер (от англ. Reseller) – организация или частное лицо, занимающееся продажей услуг крупных компаний рядовым потребителям] работать со счетами клиентов. Такие CMS являются неотъемлемой частью крупной системы учета потребления услуг пользователями. Задача же CMS данной категории – в отображении информации о предоставленных услугах, подключении новых услуг, изменении текущих параметров, приеме платежей и т. п. Часто такие системы пишутся своими силами. Для примера можно привести биллинг-панель RuWEB[Помимо нее автор имел удовольствие работать с net.ru, agava.ru, IPI.CONTROL, CLX.ru, Spaceвеб, – ни одна фирма не может порадовать гибкими тарифными планами]. В ней создано огромное количество тарифных планов, позволяющих платить только за те параметры хостинга (трафик, место на жестком диске, MySQL, PHP, Perl…), которые используются в полном объеме.
Администраторская панель хостинга. К этому классу относятся такие продукты, как Direct Admin и Control Panel. Немало хостинг-провайдеров стараются написать панель управления для пользователя хостинга своими силами, однако ни одно подобное решение, насколько мне известно, так и не смогло по возможностям и эргономике хоть немного приблизится к вышеупомянутым системам. Например, админпанель хостинга net.ru дает лишь простейшие функции управления и способна показать только то, что может сделать администратор за день работы. Самоделки.
Системы управления бывают свободно-распространяемыми и платными. Вместе с последними в подавляющем большинстве случаев вы получаете сопровождение и поддержку.
Платные системы можно разделить на три ценовые категории:
Самые дешевые, которые произведены одним веб-разработчиком или группой. Такие системы стараются сделать как можно более универсальными, чтобы продать как можно большему числу потенциальных покупателей (как правило, интернет-представительствам некрупных компаний).
К среднему ценовому диапазону относятся системы, созданные под конкретного заказчика.
Системы, созданные гигантами разработки – Microsoft и др.
Тем, кто интересуется системами управления контентом, рекомендую посетить сайт «CMS Обзор», посвященный CMS, их использованию и настройке. Описаны основные стандарты, которым должна соответствовать CMS, сравниваются платные CMS от различных разработчиков. Весьма любопытный форум. Для сведения: аналогичный англоязычный ресурс располагается по адресу www.cmswatch.com
//-- Текущее состояние рынка CMS --// Развитие чего-либо всегда определяется потребностями рынка. Состояние же рынка CMS на данный момент таково, что нет серьезной конкуренции из-за ненасыщенности рынка. Конкурентная борьба между производителями систем практически отсутствует. Абсолютное большинство мелких и средних веб-разработчиков предпочитают иметь пусть и примитивную, но свою CMS, нежели пользоваться чужими, более продвинутыми разработками. Поэтому в России ни одна система пока не может похвастаться долей рынка хотя бы в десяток процентов. К тому же до сих пор не проведено практически ни одного серьезного анализа рынка и его характеристик. Многие публикации являются скрытой рекламой какой-либо CMS. Подавляющее большинство существующих CMS несовместимы друг с другом, то есть нет возможности экспорта/импорта данных из одной системы в другую, даже через промежуточные форматы данных; несовместимы и модули разных систем. Таким образом, при желании сменить CMS, не меняя оформления, придется заново программировать интерфейс. Диапазон цен на рассматриваемые программные продукты довольно широк – от $50 до $10000, а порой и выше. То есть за долгие годы развития так и не была сформирована даже ценовая политика большинства производителей.
//-- *** --// Резюме: оборот финансовых средств на рынке немал уже сейчас, а через два-три года (когда рынок насытится) он будет огромен. Работы еще непочатый край.
//-- Habitat. Личный опыт --// Одна из систем, разрабатывавшаяся под конкретного заказчика, была создана автором статьи около двух с половиной лет назад. Называется она Habitat. Во всех случаях, по воле дизайнера, приходилось систему адаптировать под идеи каждого нового ресурса. В конце концов, я понял, что мешает существующим системам становиться комфортабельнее. Неоднократные консультации с владельцами сайтов на основе Habitat по теме сервисных возможностей показали, что далеко не все можно реализовать на базе существующих CMS. Через некоторое время был предложен проект Habitat II. В нем как основная была сформулирована идея объектно-ориентированного построения шаблонов страниц. Внешние представления внутри системы представляет собой иерархическую структуру, состоящую из компонентов, являющихся экземплярами классов (которые описываются с помощью XML и помещаются в систему). Информация из базы данных вставляется в шаблоны с помощью источников данных (константы, переменные, DataAware). Вышеописанная концепция формирования страниц сайта позволяет разрабатывать сайт дизайнеру, не имеющему навыков верстальщика и веб-программиста, на основе уже имеющихся шаблонов, уточняя по желанию детали оформления.
//-- Будущее CMS --// Очевидно, что без объединения компаний-разработчиков или покупки более мелких специализированных компаний формирование рынка невозможно.
Ниша систем высокой сложности будет занята несколькими крупными компаниями, которые уже в ней присутствуют, включая зарубежных производителей – Microsoft, IBM, Vignette и т. д. Стоимость таких систем, скорее всего, составит от одной до десяти тысяч долларов. Объектами применения CMS данного класса будут не столько веб-сайты, сколько системы документооборота, онлайн-СМИ, различного рода корпоративные порталы.
Нишу средних и малых систем займут продукты некрупных, но авторитетных агентств и бесплатные CMS.
Ориентируясь на растущие потребности предприятий, лидеры сферы разработки CMS, естественно, выходят за рамки управления содержимым веб-сайтов и управления документами.
Для каждой компании важно всегда быть на шаг впереди конкурентов. Интернет-представительство компании позволяет расширить круг потенциальных клиентов, заявить о своей серьезности, а также найти партнеров по бизнесу, внедрить новые системы продаж (интернет-магазин или система заказов). Помимо явных преимуществ, системы управления сайтами дают сотрудникам компании удобный инструмент для работы с внутренней информацией. Надеюсь, эта статья позволила разложить все по полочками и поможет вам выбрать именно такую CMS, которая наилучшим образом отвечает вашим требованиям.
13-я КОМНАТА: Навеяно темой номера
Совсем недавно, исследуя рынок средств перекодирования PDF в HTML, я встретил любопытную программу (увы, уже не помню названия), создающую почти идентичную внешне HTML-копию почти любого PDF-документа (нашу верстку, конечно, повторить ей не удалось, но это случай особый). Ни одно другое средство не могло заполнить колонку текстом так, чтобы он точно занял отведенное ему место, особенно при нетипичном расположении графических элементов, а здесь осталась разве что невыровненная правая граница. Просмотр полученного кода выявил секрет: каждая строчка текста с помощью скрипта ставилась в позицию с определенными пиксельными координатами, равно как и графические элементы. Даже наложенный на изображение текст при таком подходе вполне реализуется с помощью сборки всей «нижележащей» графики в одно изображение, подставляемое в качестве фона HTML-страницы. Объем получившегося кода превысил типовой примерно раза в три, но что такое 200—300 Кбайт для мегабитного канала? У вас еще нет такого дома? Не сомневайтесь, скоро появится.
Следующим шагом, похоже, будет позиционирование каждого отдельного символа, что позволит соблюсти кернинг, трекинг и прочие полиграфические тонкости, и останется последний неподвластный веб-серверу элемент – начертание собственно символа. Но и его можно преобразовать в графику, растровую или векторную, и тогда…
Стоп, а ведь где-то я уже это видел. Конечно же, вот оно – принтеры. Начав со шрифтов, жестко определенных механизмом или прошивкой (не напоминает ли DOS+Lynx?), пройдя этап шрифтов загружаемых (Windows+IE?), революция «мелкопечатного» дела завершилась растрированием на стороне сервера (компьютера, выполняющего печать) и передачей клиенту (принтеру) чистой графики.
Кто читал журнал с конца, уже понял: эта колонка навеяна темой номера, в которой я, к сожалению, не увидел того, что хотел, а именно – глобального взгляда на веб-технологии. Эволюция сложных систем в основном идет по пути централизации, если не встречает ограничений по ресурсам (память, каналы связи, процессор). И, соответственно, переходит от массы сложных и разрозненных технологий к одной простой, хоть и ресурсоемкой. Интернет – не исключение. Закон Мура позволяет предположить, что ограничения со временем будут сняты, так как предел достаточности у любых систем, взаимодействующих с несовершенным в плане обработки информации человеком, установлен самой природой. Всевозможные скриптовые технологии на стороне клиента (Java) и специализированные плейеры (Flash), призванные обойти ограничения трафика, блекнут перед возможностью прямой передачи 30 кадров изображения в секунду, был бы канал. Анимированный GIF из десятка кадров, заоптимизированный до предела, чтобы вписаться в разрешенные 100 Кбайт (или секунду загрузки), безусловно проиграет прямой трансляции произвольного изображения в окно того же размера. Возможно, на первом этапе потребуется сжатие-разжатие при передаче (пока ресурсы процессора имеют больший запас по сравнению с ресурсами канала связи), но это не навсегда. Вас еще пугает объем фильмов на DVD? А кто-то уже не может терпеть качество тех же фильмов в DivX. И лет через десять, возможно, вы сможете увидеть на своем экране ровно то, что хотел изобразить веб-мастер, не задумываясь, какой из браузеров более точно отобразит его идею. Да и сам браузер может исчезнуть как класс. Или как чуждое для русского языка слово.
ГОЛУБЯТНЯ: Несопоставимые вибрации
Сегодня решил окрасить не только культур-повидло, но и всю «Голубятню» в мечтательно-эстетские тона. А все потому, что очередной налет на Молдавию подарил знакомство с удивительным художником – Анатолием Данилишиным.
Читатели помнят историю Никифора Свиристухина – изысканного рисовальщика настроений, тонко передающего орнаментальный дух искусства. Свою «невписанность» в торгашескую эпоху Никифор выражает котами и рыбами, которые иронично и игриво гипнотизируют зрителей чуть ли не в каждой его картине. «Невписанность» Анатолия Данилишина еще радикальней: соблазны крутых «тачек», зелено-енотных девиц и тугих барсеточных котлет преломились под кистью художника в феерическую вспышку… цветовых абстракций! Да-да, именно так: у Данилишина нет не то что котов и рыб, но и просто сюжетов. Вместо них – захватывающие лабиринты цветовой динамики!
В годы университетской филологии у меня было два идеологических врага: голубой русин Энди Уорхол и гетеросексуальный румын Эжен Ионеско. Абстракция как форма самовыражения всегда вызывала чувство неприятия и раздражения – я просто не понимал, как людям не стыдно рукоблудить вне реальных сюжетных форм. Вы не поверите, но эту ворчливую эмоцию я стойко нес по жизни полных сорок три года. А потом – бац: отпраздновал очередное постарение, увидел картины Данилишина и – мир радикально перевернулся topsy-turvy[Вверх тормашками (англ.)].
С Анатолием Данилишиным меня познакомил Влад Друк, тот самый режиссер-документалист, что способствовал моему уходу от Ulead Media Studio к Adobe Premiere Pro (сегодня, правда, я опять вернулся к Ulead – только не бейте меня больно!). Мы с Владом заглянули в мастерскую Данилишина, как и полагается честным интеллектуалам, с единственно достойной целью – шоб выпить! Руку мне мягко пожал застенчивого вида бородатый дядька с излучающими доброжелательность глазами. Вошли в студию, я оглянулся: первая картина – шок! Вторая… Третья… Да чего уж там: взгляните на ЭТО сами и умрите вместе со мною.
Не буду Кинг-Конгом продавливать грудную клетку и доказывать, что Данилишин – самый гениальный абстракционист на свете. Предлагаю поставить лишь скромный эксперимент. Сравните абстракцию Данилишина с одним из самых аховых Гиноидов (Gynoid №28) горячо любимого мною Хадзиме Сораямы, выдержанном в родственных пастельно-гламурных тонах.
Что с чем сравнивать? Ну как же: меру потрясения от сораямовского сюжета с пространственно-цветовой глубиной Данилишина. Уверяю вас, что весовые категории будут казаться неравными лишь первые три минуты (или сколько там потребуется на утоление либидальных томлений), но как только учащенное дыхание спадет, сразу станет ясно, где тут китч, а где sublime[Возвышенное, несравненно прекрасное (фр.)]. Впрочем, насколько успел разобраться в кредо Данилишина, сам он однозначно предпочел Гиноид. Правда – не на холсте, а только в жизни!
//-- *** --// Эстетство увертюры плавно распространим на софтверную половину колонки. Повод: появление восьмой версии одной из самых блистательных астрологических программ – Астропроцессора ZET. Слежу за творчеством Анатолия Зайцева уже шесть лет и не перестаю удивляться самозабвенной преданности программиста выбранной теме: обновления текущих версий случаются чуть ли не каждую неделю! А уж номерные релизы – сущий праздник новых технологических прорывов. Так, восьмая версия дополнила и без того роскошную функциональность астропроцессора расчетом координат 200 тысяч звезд каталога Hipparcos, полным инструментарием Гамбургской школы (расчет и отображение восьми фиктивных планет, деревьев мидпойтов, гармонического лимба плюс тексты описания планетарных картин), расчетом таблиц Биндху, истинной дирекцией, а также ректификацией времени рождения методами статистики сгущений и Трутины Гермеса.
Если кого-то травмировала мутная терминология, не отчаивайтесь: ZET – как раз та единственная в мире астрологическая программа, которая может и должна быть рекомендована абсолютным новичкам. Причина тому – громадная библиотека интерпретационных текстов, интегрированных в эту программу. Иными словами, достаточно кликнуть мышью на любом элементе астрологической карты – планете, планетарном аспекте, доме, градусе, деканате, зодиакальном знаке, – и вы получите исчерпывающую (даже избыточную) его интерпретацию от самых авторитетных астрологов мира.
//-- *** --// Разумеется, интерпретация эта совершенно непригодна для членораздельного и осмысленного составления гороскопа, однако подобная задача и не стоит: не собираетесь же вы, в самом деле, становиться профессиональными астрологами? (А если собираетесь, то учиться нужно не по компьютерным программам, а полных четыре года в какой-нибудь ВШКА – Высшей школе классической астрологии.) Зато библиотека интерпретационных текстов ZET позволяет в совершенстве изучить лексику и синтаксис астроязыка – самой феноменальной формы метафориче-ского мышления в истории человечества.
Тем, кто привык размахивать жупелом «лженауки», напоминаю, что астрология – не только прогностическая техника, но и уникальный язык, чья образность формировалась на протяжении скромных пяти тысяч лет. Причем язык безупречно структурированный, что блестяще демонстрирует нейросетевая компьютерная программа Сергея Тарасова Timing Solution, в которой факты сугубо астрологических явлений формализуются до предельно математического уровня, а затем используются для прогнозирования биржевого рынка.
//-- *** --// Такой (лингвистический) взгляд на астрологию открывает для компьютерных любителей поистине сказочные дали: вместо того чтобы тратить время на чтение дурацких похождений идиотских хоббитов и прочих эскапистских бредней провинциальных англосаксов, хотя бы ради спортивного интереса погрузитесь на один вечер в мир астрологической образности. Уверяю вас, что интенсивность переживаний и глубина удовольствия даст фору даже вибрациям от Гиноидов Сораямы! Тем более что никаких затрат не требуется: версия Lite астропроцессора ZET бесплатна. И пусть не смущает вас игривость словечка Lite – функциональности этой версии хватит за оба глаза года на три!
Через неделю – рассказ о новых потрясающих программах для Pocket PC плюс промежуточный отчет о почти годовом функционале iPAQ 4700.
Линки, помянутые в «Голубятне», вы найдете на домашней странице internettrading.net/guru
НОВОСТИ: Новости
//-- Прицельная дальность --// Выполняя обещания, данные минувшей весной, IBM, Sony и Toshiba начали публиковать документацию на микропроцессор Cell. Пока на сайтах этих фирм выложено 750 страниц материалов (еще 250 должны появиться до октября) о совместно разработанной архитектуре Cell Broadband Engine.
Пока что процессор Cell наиболее известен как «сердце» грядущей игровой консоли PlayStation 3, однако солидный вычислительный потенциал обещает ему множество применений и в других областях. Так, IBM намерена использовать его в будущих медиа-серверах, Toshiba – в HDTV-телевизорах и телеприставках, ряд сторонних компаний – в высокопроизводительных системах медицинской диагностики и военного слежения.
Напомним, что Cell первого поколения содержит девять независимых модулей. Один из них – Power Processor Element – представляет собой традиционный процессор на базе 64-разрядной архитектуры IBM Power (умеющий выполнять написанные для нее приложения – например, Mac OS X), а восемь модулей Synergistic Processor Element оптимизированы для «черной» работы с ресурсоемкими вычислительными задачами. Все девять модулей работают с общей памятью.
Опубликованная документация, как надеются создатели Cell, будет способствовать росту популярности архитектуры и привлечет к ней множество сторонних разработчиков, поскольку дает подробное представление о работе процессора. В частности, сообщается о наборе инструкций и расширениях языков C и C++, специально созданных для эффективного использования заложенного в Cell параллелизма. Чуть позже станут доступны и созданные консорциумом программные инструменты разработки, включая пошаговый симулятор.
Однако следует подчеркнуть, что публикуемая документация служит в первую очередь для ознакомления и оценки технологии, а не для разработки новых приложений. Важнейшие задачи, которые должна решать архитектура Cell (разделение приложения на множество потоков и параллелизация обработки данных), пока придется программировать вручную. Но в обозримом будущем IBM обещает завершить работу над компилятором, который в автоматическом режиме будет распределять единый поток кода по распараллеленным ресурсам процессора. Ну а пока всю доступную на сегодняшний день документацию по Cell можно найти по адресам www.cell.scei.co.jp или www.ibm.com/developerworks/power/cell.
//-- Самый народный компьютер --// Предлагать недорогие ПК для потребителей из развивающихся стран стало для чипмейкеров признаком хорошего тона; такая у них, видно, социальная ответственность бизнеса. Пробный шаг сделала AMD, анонсировавшая свой PIC в октябре 2004-го (см. «КТ» ##565, 566), за ней – в мае нынешнего года – последовала Via с моделью Terra. Теперь на ринг вышел настоящий тяжеловес – Intel.
На августовском Intel Developer Forum публике был продемонстрирован концепт очередного бюджетного ПК, фигурировавший под условным названием «общинный компьютер» (community computer). Разработчики ориентируются на потребителей, проживающих в сельских районах и на периферии, то есть целевая аудитория примерно та же, что и у AMD с Via. Но Intel была бы не Intel, если б не придала блюду фирменный вкус. Одним из главных преимуществ новинки заявлена высокая жароустойчивость – стабильная работа при температуре воздуха в 40 и более градусов (интересно, а другие ПК на платформе Intel к таким климатическим условиям приспособлены?). Кроме того, обещана защита от пыли и насекомых, для чего в машине будут установлены специальные фильтры. По всему видно, Intel рассчитывает заинтересовать своим ПК кочевников-бедуинов.
Впрочем, слово «общинный» употреблено неспроста. По мнению разработчиков, телефонизации отдаленных поселений в ближайшее время ждать не придется, и единственный способ обеспечить местных жителей выходом в Интернет – создать систему беспроводного доступа. Поэтому бюджетный ПК от Intel поддерживает продвигаемую корпорацией технологию WiMAX. В числе других достоинств модели – неприхотливость к источникам питания: в случае чего ПК может быть подключен к автомобильному аккумулятору.
Похоже, Intel всерьез беспокоят успехи AMD PIC, что, впрочем, не удивительно: разве может лидер индустрии позволить, чтобы на всех персоналках, попадающих в индийскую или африканскую глубинку, красовался брэнд главного конкурента? Насколько реально желание Intel продвигать «народные» компьютеры, мы узнаем только в следующем году: поставки безымянной новинки начнутся не ранее января. А пока будем ждать анонсов от других производителей; на очереди, очевидно, морозоустойчивые, водонепроницаемые и ударопрочные бюджетные модели. – А.Ш.
//-- Вокруг да около --// Еще одна новинка IDF: маркетологи Intel выкатили платформу, на основе которой предлагают строить центры домашних развлечений. Viiv – таково ее название – идеологически подобна Centrino: это комплект из двухъядерного процессора, чипсета, беспроводного адаптера и специально написанного для платформы ПО. Детали начинки пока остаются в секрете, за исключением того, что на все машины будет установлена Windows Media Center Edition.
Intel позиционирует Viiv как платформу для игр, музыки и видео. Но какие возможности будут заложены в систему и чем она будет отличаться от обычного компьютера на базе Pentium, неясно. К примеру, утверждается, что машина сможет подключаться к развлекательным веб-сервисам, скачивать музыку, обеспечит доступ к онлайновым играм. Разве этого нет в любом другом ПК? Другая отличительная черта: при помощи ТВ-тюнера на компьютере можно будет просматривать телепередачи и записывать их на жесткий диск. Революционно, не так ли? При этом, что характерно, тюнер в стандартную поставку не входит. Наконец, обещана подлинная многозадачность: можно будет одновременно играть и скачивать из Сети какой-нибудь блокбастер в HDTV-качестве. В этом ключевую роль должен сыграть тот самый двухъядерный процессор. Замечательно, конечно, но…
Главное, о чем повествуют нам строки пресс-релизов, – дистанционный пульт управления. По мысли маркетологов Intel, он должен превратить Viiv в аналог обычного телевизора – не по функциональности, естественно, а по легкости управления. Однако и это вроде бы уже предусмотрено в концепции Microsoft Media Center. Все, конечно, зависит от реализации идеи, но новаторства здесь на первый взгляд негусто.
Чуть больше определенности с софтверной начинкой Viiv. Intel сделала ПО, которое позволит легко подключать к машине карманные девайсы, DVD-плейеры, телевизоры и прочую бытовую технику. Конечно же, этот софт комфортно настраивать с пульта ДУ. Также в наличии универсальный «движок», который сможет на лету преобразовывать форматы файлов, обеспечивая их совместимость с портативными устройствами (интересно, а как обстоит дело с файлами, защищенными DRM?).
Компьютеры, основанные на платформе Viiv, появятся в первом квартале следующего года в корпусах «разной формы и размера для соответствия интерьеру и величине помещения». Разработка окончательных спецификаций ляжет на плечи производителей новых ПК. Как считают эксперты, отсутствие четкого позиционирования платформы способно сыграть с Intel дурную шутку: потребители не смогут провести границу между Viiv и обычным ПК. В любом случае, маркетологам корпорации предстоит немало потрудиться, учитывая довольно высокую ожидаемую цену новых продуктов. Тайваньские компании – будущие производители Viiv-компьютеров – уже подсчитали, что одна машина будет стоить в зависимости от комплектации 1000—1500 долларов. Как говорится, бог в помощь. – А.Ш.
//-- Валите файлы в кучу --// В конце августа Microsoft нежданно-негаданно выпустила бета-версию файловой системы WinFS. Тестовый пакет доступен подписчикам MSDN и предназначен в первую очередь для того, чтобы дать возможность разработчикам собственноручно пощупать новую систему. Впрочем, найти в Сети соответствующий файлик труда не составит, так что при желании тестером может стать кто угодно (в данный момент обеспечена совместимость с Windows XP SP2).
WinFS – продукт с нелегкой судьбой. «Осиротев» после исключения из состава Windows Vista (в девичестве Longhorn), Windows File System выделилась в самостоятельный проект. А поскольку главной причиной этого инцидента стала банальная нехватка времени при подготовке новой версии ОС, мало кто ожидал радостных известий из стана разработчиков.
WinFS не файловая система в полном смысле, а лишь надстройка над NTFS. Пользователям системы предлагают абстрагироваться от привычного представления данных. За счет использования репозитория на основе SQL-сервера и всеобщего проникновения метаданных открываются широчайшие возможности по структуризации (вроде модных ныне виртуальных папок, включающих файлы, отсортированные по определенному признаку вне зависимости от физического местонахождения) и управлению информацией. Если модель, предложенная WinFS, окажется удачной, то через некоторое время можно будет вообще забыть о привычке хранить файлы под определенными именами в определенных директориях, а нужный блок информации (даже не всегда целый файл!) – извлекать из недр системы по набору ключевых поисковых параметров.
Дата окончательного выхода WinFS неизвестна. Представители Microsoft отмечают, что, несмотря на раннее появление бета-версии, работы еще много. Но даже готовой системе не суждено стать неотъемлемой частью какой-либо ОС, по крайней мере согласно текущим планам. WinFS не включена в состав ни Vista, ни Longhorn Server. Для дистрибуции будет применена модель распространения, опробованная на .Net Framework, когда пользователь, заинтересованный в соответствующей технологии, самостоятельно устанавливает необходимый компонент ОС. – А.З.
//-- Нью-Орлеанская дева --// Жители юго-восточного побережья Соединенных Штатов надолго запомнят конец нынешнего лета: «черный понедельник» 29 августа ворвался сюда со скоростью 200 километров в час, летя на крыльях урагана Катрина. В эпицентре стихии оказался густонаселенный район Луизианы близ дельты Миссисипи, в том числе столица штата – Нью-Орлеан.
Единственным солистом, выступавшим на подмостках всемирной столицы джаза, на протяжении нескольких часов оказался жестокий вихрь, срывающий крыши с домов, рвущий коммуникации и обрушивающий на берег шестиметровые валы. Разбуженная его ударами красавица Миссисипи явила свой необузданный нрав, выйдя из берегов и почти полностью затопив город и его окрестности. Ураган аукнулся и остальной части страны, посаженной на голодный бензиновый паек: как-никак, вследствие форс-мажора благодатный нефтегазоносный район Мексиканского залива лишился 42% своей выработки. В результате цена на нефть в Штатах скакнула до рекордных 70 долларов за баррель, и для насыщения рынка вашингтонским властям пришлось сорвать пломбы со стратегического нефтяного запаса. По словам экспертов, потери от стихийного бедствия могут достигнуть 25 млрд. долларов; впрочем, не исключено, что наводнение вдвое увеличит даже эту гигантскую цифру.
Лишь только стихли порывы ветра, за дело взялись спасатели, посильную помощь которым оказывали представители хайтек-индустрии. Одними из первых в район бедствия поспешили специалисты компании Cisco, в отсутствие мобильной связи снабдившие дежурные бригады спутниковыми передатчиками. Быстро среагировали на вызов стихии и представители находящегося неподалеку университета Южной Флориды, перебросившие к месту трагедии собственноручно разработанные новинки. Среди них – крошечные радиоуправляемые роботы, способные передавать оператору картинку из-под завалов, а также наделенные чувствительными сенсорами «локаторы жизни», по слабому дыханию определяющие местонахождение жертв среди руин. Кое-какие из изобретений флоридцев уже прошли испытания в «горячих точках» и имеют сертификаты спасательных служб.
На время молчания бумажной прессы и радио роль «властителей дум» перешла к интернетчикам: как грибы после дождя, в Сети стали появляться сайты, посвященные трагедии. На несколько дней после налета урагана крупнейшая местная газета The Times Picayune перебралась в чистый онлайн, став «народным вече» для взволнованных горожан. Созданный силами онлайновых добровольцев форум HurricaneKatrinaSurvivors.com немало поспособствовал воссоединению разлученных бурей ячеек общества, а блоггеры с сайта New Orleans Pundit молниеносно организовали сбор средств в пользу пострадавших.
Пожалуй, единственными, кто выиграл от удара стихии, оказались специалисты из Национального центра изучения ураганов, пополнившие свои анналы новым «экспонатом». Эксперты присвоили грозной Катрине четвертый балл по пятибалльной шкале Симпсона. За последний год Штатам нанесли визит два столь же грозных урагана – Чарли и Деннис. Увы, североамериканскими гастролями стихия отнюдь не довольствуется: в те самые дни, когда жители Луизианы подсчитывали убытки, к берегам Тайваня несся разрушительный тайфун Талим. Похоже, на вопрос о том, сколько в ближайшее время будет стоить оперативная память, вам точнее всего ответят климатологи. – Д.К.
//-- Не будь ослом! --// По данным британской аналитической компании CacheLogic, давление голливудских студий на сообщество мировой «контентной халявы» привело к тому, что от файлообменника BitTorrent отвернулась большая часть пользователей. Еще в начале года трафик BitTorrent составлял, по разным оценкам, 50—70% от всего «частнопользовательского» трафика, а сейчас эта доля существенно сократилась. Единственное место, где BitTorrent сохранил свои позиции на конец лета, – это азиатско-тихоокеанский регион (туда правообладатели предпочитают не соваться, вероятно, памятуя, что «Восток – дело тонкое»).
После развернутой киноассоциацией MPAA травли прекратили существование сотни крупных (вроде SuprNova и LokiTorrent) и мелких BitTorrent-сайтов. А в августе MPAA подала иски на 286 пользователей, логи сетевой активности которых остались в базе арестованных серверов. Кстати, изобретатель BitTorrent Брэм Коэн (Bram Cohen) предупреждал на заре развития новой технологии о том, что ее использование для обмена нелегальным контентом (в силу достаточно централизованной и открытой структуры) – затея глупейшая: все данные об участниках обмена видны как на ладони.
Ну а поскольку свято место пусто не бывает, пользователи вернулись к старому доброму «Ослу», взобравшемуся во многих странах на первую строчку хит-парада пиринговых систем. Клиент eDonkey позволяет загружать самый разный контент – от программного обеспечения до фильмов и MP3, а кроме того, содержит средства проверки на «поддельные» файлы (их специально запускают в Интернет борцы с пиратами) и массу других удобных функций. Однако наполняемость подсетей eDonkey зависит только от воли пользователей, отважившихся поделиться контентом. А делать это, в свете последних событий, становится все страшнее. По крайней мере в странах, которые принято относить к «цивилизованному миру». – Т.Б.
//-- Киберограбление по-фински --// Финская полиция ярко отметилась на ниве борьбы с компьютерными преступлениями. Правоохранительным органам удалось задержать 26-летнего служащего подразделения GE Money в Хельсинки по обвинению в хищении 200 тысяч евро со счетов компании. Подозреваемый, чье имя пока не раскрывается, оказался не более и не менее, как… главой службы ИТ-безопасности пострадавшей организации.
Особого внимания заслуживает техника ограбления. GE Money зарегистрировала подозрительное движение средств на счетах еще в июне. Как оказалось, руководитель службы ИТ-безопасности переписал специальное программное обеспечение и пароли для доступа к счетам на свой ноутбук. Уже находясь дома, он, в стиле голливудских боевиков про хакеров, воспользовался незащищенной беспроводной сетью своего соседа, чтобы перевести деньги на новый счет. Таким образом обвиняемый пытался запутать полицию, которая, естественно, немедленно вычислила соседа и провела у него обыск. Следственные мероприятия сразу же подтвердили его невиновность, но борцов с киберзлом это не обескуражило. В электронном журнале событий остался MAC-адрес сетевой карты истинного преступника. Проверка показала, что карта принадлежит GE Money, а внутреннее расследование позволило, потянув за эту ниточку, вычислить владельца ноутбука. Вот так полиция и вышла на след «горячего финского парня».
Эксперты InfoWatch считают, что быстрое раскрытие преступления объясняется низкой квалификацией преступника. Мало-мальски понимающему специалисту известен трюк с подменой MAC-адреса. Остается удивляться, что такой человек смог получить столь ответственный пост в известной компании.
По делу арестовано также три человека, якобы помогавших сотруднику GE Money сделать online-перевод, а потом снять украденные деньги. Однако всё это люди «со стороны»: в пострадавшей компании никто из них не работал. Известно, что четвертого преступника арестовали, когда он пытался обналичить с «левого» счета очередную порцию европейской валюты. Представители правоохранительных органов сообщили, что удалось вернуть все похищенные средства. – Д.З.
//-- Турецкий заказ --// ФБР напала на след создателей вируса Zotob, недавно вызвавшего переполох в американском Интернете. Напомним, что червь, использовавший брешь в системе безопасности Windows 2000 (и, как впоследствии выяснилось, Windows XP SP1), поразил сети ряда крупнейших корпораций и информационных агентств (см.
«КТ» #602
Спецслужбы уже арестовали двух подозреваемых – 21-летнего турка Атиллу Экици (Atilla Ekici) по прозвищу Coder и 18-летнего марокканца Фарида Эссебара (Farid Essebar), известного под ником Diabl0 (интересно, что Фарид родился в России).
Предполагается, что Эссебар написал вирус по просьбе Экици, который оплатил заказ и организовал распространение червя. Как установили следователи, Diabl0, несмотря на юный возраст, отнюдь не новичок в хакерском ремесле: он является автором двух десятков вирусов, включая Mydoom-BG. Виновных нашли всего за две недели, при этом в столь короткий срок удалось получить все необходимые согласования и заручиться поддержкой властей Турции и Марокко (Экици и Эссебара были взяты по месту жительства).
В ходе расследования выяснилось, что Coder входил в хакерскую группу, занимавшуюся кражей личной информации и мошенничеством с кредитками. Часть группы (насчитывающей двенадцать человек) арестована, но доказательств их причастности к запуску Zotob пока нет. Из-за связи авторов вируса с финансовыми мошенниками и кардерами следствие не исключает, что обвиняемые получили от неких заинтересованных лиц заказ на создание «антикорпоративного» вируса (Zotob прошелся смерчем в основном по сетям крупных компаний; среди частных пользователей пострадавших было немного).
После подсчета ущерба от эпидемии Экици и Эссебаре предъявят официальное обвинение и будут судить по местным законам. Скорее всего, помимо нескольких лет тюрьмы им грозят штрафы в миллионы долларов. – Т.Б.
//-- Голубой, активный… маркетинг --// Если жители крупных городов полагают, что количество рекламных щитов вдоль дорог и навязчивость рекламы достигли предела, то они заблуждаются. Пределов навязчивости, скорее всего, не существует вовсе, а коммуникационные технологии будут способствовать проникновению рекламы в наше сознание все сильнее. Яркий тому пример – электронные рекламные щиты, пытающиеся по каналу Bluetooth закачивать рекламу в мобильники, смартфоны и КПК.
Первой ввела в действие такую систему, получившую название BlueCasting, лондонская фирма-разработчик Filter UK. В ходе совместных с маркетинговой компанией Maiden Group испытаний на шести железнодорожных станциях Лондона в рекламные щиты была установлена аппаратура, которая с помощью направленной антенны сканировала прохожих в радиусе 100 метров. Если у кого-то из публики оказывалось включенное Bluetooth-устройство, то оно издавало сигнал, а на экране появлялось предложение загрузить некую информацию: видеоролик, музыкальный клип или картинки (в данном случае щиты рекламировали новые альбомы поп-групп). Если возражений не было, то файл с рекламой тут же закачивался в аппарат и воспроизводился (с примером контента такого рода можно ознакомиться на сайте разработчика по адресу www.filter-uk.com/coldplay-demo). За две недели «полевых испытаний» BlueCasting-щиты обнаружили 87 тысяч работающих Bluetooth-устройств, а скачать клип для просмотра согласился каждый шестой их владелец.
Разработчики из Filter UK заверяют, что навязчивая, спору нет, технология не может распространять вирусы, ибо BlueCasting не рассылает приложения или исполняемые коды. Однако независимые специалисты по компьютерной безопасности воздерживаются от столь категоричных суждений. Далеко не все файлы, выглядящие как картинки или видеоклипы, являются гарантированно безопасными. Так что вполне можно представить себе некоторые возможные сценарии вредительства с помощью BlueCasting. Но как бы ни сложилась судьба этой новинки, пользователям Bluetooth-устройств следует помнить, что «голубой зуб» в многолюдных местах лучше держать выключенным (или «невидимым»), а включать лишь для передачи нужной информации. – Б.К.
//-- Подайте музыканту --// Сетевое сообщество взбудоражено: в Интернете гуляют слухи, что 7 сентября Apple представит очередную революционную новинку в области цифрового медиа, не меньшего масштаба, чем первый iPod. Интригующие приглашения журналистам уже разосланы, а публика спорит, чем же удивят яблочники на сей раз – плейером, умеющим проигрывать видео, или сотовым телефоном с поддержкой iTunes (давно обсуждаемый аппарат Motorola E790).
Почти четыре года прошло с того дня, когда глава Apple Стив Джобс представил первую модель плейера iPod. Уже тогда было ясно, что у новинки хорошие перспективы. Но никто и не подозревал, что этот стильный малыш будет так задорно плясать на костях крупнейших звукозаписывающих лейблов. Недавно Universal Music Group и Warner Music обратились к Apple с просьбой изменить ценовую политику. Лейблы порекомендовали «яблочникам» поднять цены на новые синглы и альбомы до 1,5 долларов за трек и снизить цены на «старенькую» музыку ниже нынешних 99 центов. По признанию звукозаписывающих компаний, музыка на носителях не выдерживает конкуренции с «цифрой». Так, в августе, всего за четыре дня после своего открытия японский iTunes Music Store реализовал миллион композиций. При этом в Японии iTunes стартовал без каталога Sony BMG Music Entertainment и Warner Music Group – лейблы просто отказались лицензировать свою музыку.
По словам Джобса, повышать цены Apple не станет, чтобы не отпугнуть пользователей, и так уже косящих одним глазом в сторону P2P-сетей. Да и конкурирующие онлайновые системы не позволят. Например, Yahoo! только что запустила в коммерческую эксплуатацию свой Music Unlimited. За 5—7 долларов в месяц подписчики получают неограниченную возможность слушать на ПК или портативном плейере музыку из миллионной коллекции композиций, а отдельные треки (прожигаемые на CD) обойдутся в 79 центов (сервис пока работает только в США). Готовится к выходу на онлайновый музыкальный рынок и Amazon.com – ее магазин откроется в течении осени. – Т.Б.
//-- Игра на интерес --// В середине июля Sony открыла аукционный сервис Station Exchange онлайновой ролевой игры EverQuest II. Спустя месяц выяснилось, что объем транзакций по перепродаже разнообразного виртуального имущества и персонажей составил солидную сумму – около 180 тысяч долларов. Каждый игрок, имевший доступ к онлайновому магазину, потратил за это время в среднем 70 долларов.
Как известно, большинство компаний – держателей онлайновых игровых вселенных – запрещают продажу добытого в многочасовых бдениях за компьютером добра. Blizzard, например, удаляет аккаунты «коммерческих» игроков в World of Warcraft, так что читерам приходится покупать новую копию игры (только в августе из WoW вылетели таким образом полторы тысячи человек). Правда, подобные карательные санкции останавливают далеко не всех, и торговля на черном рынке через веб-аукционы все равно идет бойко. Нынешний положительный опыт Sony Online Entertainment показывает, что можно обойтись и без репрессий, переведя торговлю на легальные рельсы. При этом компания получает вполне приличную комиссию – 10% от каждой сделки (и минимум 1 доллар за листинг аукциона).
Конечно, далеко не всем геймерам интересно играть в мире, где крутого персонажа можно запросто купить. На это возражение Sony отвечает, что Station Exchange работает лишь на двух серверах EverQuest II из тридцати трех действующих. Так что любой пользователь из полумиллионного населения игры может выбирать, где ему больше по душе: в «честном мире с равными возможностями» или во вселенной, где в онлайне можно заработать реальные деньги, равно как и купить приличный рейтинг для своего героя.
Напомним, что в свое время Sony категорически противилась игровой коммерции и даже грозила игрокам судебными преследованиями. Сегодня же герой пятидесятого уровня EverQuest II стоит около двух с половиной тысяч долларов. А как изменится экономика реального мира, если в легальную торговлю включатся 4 млн. человек, населяющих World of Warcraft? – Т.Б.
//-- По долинам и по взгорьям --// General Motors объявила о скором начале продаж ноутбуков под брэндом Hummer. Как известно, многие автоконцерны не чураются помимо своей основной продукции продавать и разнообразные аксессуары, выполненные в фирменном стиле (брелоки, бумажники, зонтики и тому подобную мелочевку). Теперь вот дело и до лэптопов дошло.
Поскольку речь идет о подчеркнуто внедорожной марке, то и компьютеры будут соответствующие – из категории «танки грязи не боятся». Делать их будет компания Itronix, известный американский производитель ноутбуков для военных и индустриальных приложений. Корпус из магниевого сплава со стальными шарнирами, защищенные от ударов винчестер и дисплей, автоматическая подстройка яркости экрана в зависимости от освещенности, GPS вкупе с модулем сотовой связи (GPRS/EDGE или CDMA 1xEV-DO) намекают на активный образ жизни владельца подобного аппарата. Хотя, конечно, здесь больше пускания имиджевой пыли в глаза, чем реальной внедорожной крутизны. Под дождик, скажем, с таким лэптопом не выйдешь, да и ронять его особенно не стоит. Цена новинки на базе Centrino превышает три тысячи долларов – по сравнению с Hummer H2 не так и много; продажи обещают начать в ноябре (www.hummerlaptops.com).
Интересно, последуют ли другие автопроизводители примеру General Motors? А то уж очень похожи друг на друга современные компьютеры, в автомире яркая индивидуальность куда в большем почете. – Т.Б., В.Бир.
//-- Лучше нету того цвету… --// Кто является лицом Интернета? Для китайцев этот вопрос ныне почти риторический. Вероятнее всего, «приз зрительских симпатий» достанется 28-летней блоггерше Jiejie Furong («Сестра Гибискус»), известной в миру как Ши Хенься (Shi Hengxia). Из героинь отечественной Сети подобной популярностью могла похвастаться разве что флэш-звезда Масяня.
В ряды блоггеров Ши подалась два года тому назад – свой «сетевой огородик» она начала возделывать, дабы совладать с депрессией после того, как перед ней захлопнули двери сразу два университета Пекина. Друзья-студенты помогли разместить ей свои снимки на университетских серверах, и впечатляющие картинки вызвали фурор у обитателей кампусов. Окрыленная успехом, Ши завела свой личный блог, который и превратил никому не известную красотку во всекитайскую знаменитость. Свои личные фотографии самозванная веб-звезда снабжала едкими комментариями по поводу превратностей жизни и взаимоотношения полов. Подобная смелость, редкая среди жительниц страны победившего социализма, вызвала интерес у местных сетян, и популярность Ши стала расти как на дрожжах.
Потребителей сетевой «клубнички» дневник китаянки, вероятно, разочарует: ее фотозарисовки начисто лишены «ню», а постельные сцены ограничиваются теми, где героиня возлежит рядом с любимым ноутбуком. Впрочем, даже столь пуританского дневника оказалось достаточно, чтобы его хозяйка впала в немилость у китайских властей. В конце лета местным СМИ, наперебой бравшим интервью у Ши, было высочайше запрещено помещать ее имя на газетные полосы. Карающая длань коснулась и Интернета: держателям ведущих развлекательных порталов, разместившим на заглавной странице ссылки на скандальный блог, было рекомендовано убрать их с глаз долой.
Впрочем, предпринятые меры поспособствовали распространению славы отчаянной блоггерши за пределами китайской интернет-стены. «Жертва режима» и «Враг государства номер один», как наперебой называют Ши западные журналисты, постепенно завоевывает всемирную популярность. Недавно аромат гибискуса привлек падких на сенсации американцев, и в конце августа блог китаянки вошел в десятку сайтов с самой быстрорастущей популярностью по версии поисковика Yahoo!. Не исключено, что скоро Ши станет кинозвездой: пекинская компания Zombo подписала с нею контракт на серию короткометражек, предназначенных для распространения только через Сеть.
Судя по всему, об истоках «гибискусомании» Ши предпочитает не задумываться, записывая все достижения исключительно на собственный счет. Впрочем, звезде китайского Интернета не помешало бы воздать по заслугам бдительным властям своей страны, обеспечившим ей первоклассный пиар. – Д.К.
//-- Цена слова --// Система размещения контекстных рекламных объявлений Google AdWords теперь работает по новым правилам. Изменения уже привели к увеличению расходов рекламодателей AdWords и росту доходов владельцев сайтов, публикующих рекламу AdSense, а значит, и прибыли великого и ужасного Google также возросли.
Напомним, что Google AdWords позволяет любому желающему разместить рекламное объявление со ссылкой на свой сайт, отображаемое в выдаче поисковых результатов Google (в колонке справа) по выбранным ключевым словам и на релевантных им сайтах-участниках системы Google AdSense. Рекламодатель оплачивает клики на свои объявления по цене, не превышающей установленную им максимальную стоимость перехода по ссылке для соответствующего ключевого слова. Далее все просто, кто больше платит за слово, тот и чаще мелькает на рекламных просторах Сети. Минимальная же цена слова зависит от некоторого таинственного показателя качества. Из-за него-то и разгорелся сыр-бор.
Показатель качества формируется автоматически по таким параметрам, как рейтинг кликов (CTR) ключевого слова, релевантность текста объявления, история эффективности ключевого слова и еще Билл знает что. Если вдруг ваше тщательно составленное объявление, приносящее солидный поток посетителей, Google-мозг посчитает недостаточно качественным для определенного ключевого слова, показы объявления по этому слову прекратятся. «Некачественное» объявление легко можно вернуть к показам, подняв вашу ставку за клик. После очередного шаманства с алгоритмами качества форумы обросли недовольными постами рекламодателей, использовавших дешевые объявления с ценой менее 10 центов. Множество низкобюджетных объявлений стали вдруг неэффективными, ушли из показов и для своего воскрешения им требуется отстегнуть больше 30 центов за клик.
Конкурирующие с AdWords системы контекстной рекламы, включая варианты от Yahoo! и популярный в Рунете Yandex Direct, не позволяют давать объявления с ценой менее 10 центов за клик, и на использовании AdWords еще недавно можно было существенно сэкономить. Теперь же, формально позволяя давать дешевые объявления, Google AdWords через показатель качества может сколько угодно задирать цены.
Суть нововведений подана в новостях от Google в виде безобидной фичи, созданной на благо пользователей для упрощения работы и повышения эффективности рекламы. Если не брать во внимание интересы низкобюджетных рекламодателей, удорожание действительно ведет к повышению эффективности рекламы. Изменения в работе Google AdSense позволяют уменьшать количество рекламных объявлений внутри блока контекстной рекламы, тем самым отводя больше площади качественным (читай, дорогим) объявлениям. Крупные игроки получат больший рекламный простор за счет отфильтровывания бедных веб-мастеров с их «некачественными центами». Да и инвесторы Google перед предстоящим повторным IPO будут довольны повышением доходности AdWords. – С.С.
//-- Младший брат Бэтмена --// В то время как легион робоконструкторов по всему свету корпит над тем, чтобы научить гуманоидов воспринимать мир по-человечески, некоторые инженеры уже замахиваются на большее. И впрямь, к чему ограничиваться скромным букетом из пяти органов чувств, если многие из братьев наших меньших имеют в своем арсенале шестое – а именно, ультразвуковую эхолокацию? Успешнее всех в этом направлении в настоящее время движутся европейские исследователи, пытающиеся повторить навигационный прибор летучей мыши.
Работы по созданию «электронного Бэтмена» ведутся уже в течение трех лет в рамках проекта CIRCE. Необходимость в создании подобного сенсора назрела давно: в то время как работающие в воде сонары давно являются неотъемлемой частью любого судна, с внедрением эхолокации на суше дела обстоят далеко не так гладко. Увы, летучую мышь с «протезом» из современного ультразвукового сенсора ждет незавидная судьба: существующие ныне коммерческие системы весьма примитивны, и не могут претендовать на роль полновесного органа чувств.
Исследователи пытались максимально приблизить конструкцию своего творения к природному аналогу. Одним из ключевых этапов работы стало создание оригинального преобразователя акустического сигнала в электронный вид и обратно. Ныне спектр эффективно обрабатываемых им частот составляет от 20 до 200 килогерц, охватывая практически весь диапазон мышиного «ультрасопрано». Как это принято у летучих мышей, источники и приемники сигнала расположены максимально близко друг к другу, при этом искусственное ухо наделено двумя степенями свободы, позволяющими ему динамически менять наклон. Для создания этой крошечной «тарелки» исследователям пришлось детально просканировать ушные раковины двух десятков видов рукокрылых.
Крошечный робот уже способен определять «на ощупь» несколько видов растений, безошибочно читая «сигнатуры» возвращаемого ими эха. Впрочем, до моделирования настоящей летучей мыши пока далеко: ведь электронный «ботаник» еще не обзавелся мозгом, обрабатывающим сигналы в реальном времени. И все же повод для оптимизма у исследователей есть: как-никак, им удалось повторить достижение, на которое у матушки-природы ушел не один миллион лет. – Д.К.
//-- Чистый термояд? --// Группе российских ученых удалось с помощью короткого импульса лазера инициировать реакцию «чистого» термоядерного синтеза водорода и бора.
За полвека попыток создания управляемого термоядерного синтеза практически все силы физиков были сосредоточены на реакции слияния изотопов водорода дейтерия и трития – просто потому, что эту реакцию легче всего инициировать. А это и есть главная проблема, для решения которой строятся гигантские токамаки вроде ITER или огромные лазерные установки, стреляющие по маленькому шарику с водородом. Но, в любом случае, при слиянии изотопов водорода среди продуктов реакции образуются нейтроны, которые неизбежно бомбардируют стенки реактора и порождают из его материалов опасные радиоактивные изотопы. Возникает проблема их безопасной утилизации, которую еще предстоит решать (в частности, в ходе проекта ITER). Так что неисчерпаемая и «чистая» термоядерная энергия на поверку оказывается не такой уж и чистой.
Существуют, однако, и другие реакции слияния легких ядер, которые способны выделять энергию. Среди них, пожалуй, наиболее интересна реакция слияния протона (ядра атома водорода) и ядра изотопа бора-11. В результате должны получаться только три альфа-частицы – ядра атомов гелия. А с тяжелыми и заряженными альфа-частицами гораздо легче управиться, чем со всепроникающими нейтронами. Кроме того, появляется возможность непосредственно получать электрический ток, в то время как незаряженные нейтроны способны производить только тепло, которое потом еще надо перерабатывать в электричество с помощью паровых турбин.
К сожалению, чтобы инициировать реакцию слияния водорода и бора, требуется на порядок больше энергии, чем в случае с изотопами водорода. Смесь надо сначала нагреть до миллиарда градусов, что делает надежды на получение энергии совсем уж несбыточными. По этой причине реакция слияния водорода и бора почти не исследовалась.
Российским ученым впервые удалось экспериментально продемонстрировать «чистоту» водородо-борной термоядерной реакции. Для этого они использовали мишень в виде маленького шарика из полиэтилена, внутри которого был помещен бор. Шарик облучали импульсом неодимового лазера с энергией 10—12 джоулей и длительностью в полторы пикосекунды. Короткий импульс позволил достичь огромной плотности потока энергии на мишени – более 1018 ватт на квадратный сантиметр. Шарик мгновенно превращался в горячую плазму водорода, углерода и бора, и протоны начинали сталкиваться и сливаться с ядрами бора. Один импульс позволял получать около тысячи альфа-частиц и практически ни одного нейтрона.
По мнению российских ученых, исследования действительно чистой реакции термоядерного синтеза следует продолжить. Есть надежда, что проблему ее эффективного поджига удастся решить, и тогда водород и бор смогут стать достойной заменой тяжелым изотопам водорода. – Г.А.
Новости подготовили
Галактион Андреев
[galaktion@computerra.ru]
Тимофей Бахвалов
[tbakhvalov@computerra.ru]
Сергей Борисов
[borisov28@yandex.ru]
Артем Захаров
[azak@computerra.ru]
Денис Зенкин
[dz@infowatch.ru]
Бёрд Киви
[kiwi@computerra.ru]
Денис Коновальчик
[dyukon@computerra.ru]
Антон Шириков
[shirickov@computerra.ru]
ПИСЬМОНОСЕЦ: О пользе правильного питания
Приз в виде книги Сергея Голубицкого «Великие аферы XX века» достаются Azat’у в качестве компенсации за мучения.
С утра все было как-то не так, но компьютер еще работал… А началось с того, что от нехватки питания умер винчестер. После трех-пяти перезагрузок наконец-то включилась мышь (питание), благо когда она загрузится, можно определить через три секунды, далее по непонятным причинам захрипел звук. После пяти reload’ов решил протереть звуковушку (SB Live 5.1). Вкл… Винчестер умер еще во время загрузки Windows XP Pro SP1. Релоад. Мышь не включилась. Релоад. Запуск ОС со старой удачной конфигурацией. Опять умер винт. Релоад… Мышь… Релоад… Загрузилось. Ага! Звук не в тот слот воткнул. Выкл. Плюнул (не помню, где родной). Снова пять релоадов (мышь). О! Windows загрузилась! И сразу простил винчестер за прерывание загрузки, и понял, что звук в другом месте, и без лишних разговоров все исправил. Вот и ругайте после этого Б. Гейтса.
ОТ РЕДАКЦИИ: Вы думаете, у нас лучше? Подходит ко мне наш корректор, говорит, что компьютер завис как-то странно, и дымом пахнет. На экране – известная синяя страничка с белым текстом, в окрестностях пахнет горелым. Нюхаем внимательно. Системный блок? Нет. Монитор? Нет. Блок питания монитора? Нет. Клавиатура? Нет. Мышь??? Да!!! Она горячая и дымится. Всё выключаем, разбираем. У мыши, понятное дело, находим прогоревшую дырку в микросхеме. Пытаемся включить без мыши – не работает. Меняем блок питания – не работает. Меняем системную плату – работает, но нет клавиатуры. Меняем клавиатуру и ставим новую мышь – работает. Ставим обратно старую системную плату – работает. Ставим обратно старый блок питания – работает. Подключаем винчестер и загружаемся – система нормально запускается. Итого, в мусорном ведре лежат мышь и клавиатура. Ну и что это, как не происки коварного Гейтса?
Здравствуйте, уважаемая редакция!
Открыв страницу «13-я комната», я начал читать занимательный текст про предложение Google для программистов «Как провести лето». Да, очень интересный и захватывающий программистский дух очерк.
Даже предисловие интересное – товарищ выпускающий редактор посыпает голову и свой письменный стол пеплом, что, мол, от выпускающих редакторов один вред, но он попытается реабилитироваться приводимым далее очерком.
Все замечательно в этом очерке, но САМОЕ главное не учел товарищ выпускающий редактор В. Гуриев. Указывая, что каждый читатель еженедельника может успеть сделать заявку до 14 июня, он не учел, что до Сибирской и Дальневосточной частей России журнал идет (путями РосПечать) от двух недель и более.
Из всего этого следует, что в роли выпускающего редактора и автора страницы «13-я комната» В. Гуриев не только не смог реабилитироваться, но и нанес тем самым моральный вред значительной части читателей.
Просьба в следующий раз зря не посыпать голову пеплом, заранее не подсчитав хотя бы сроки доставки еженедельника по стране.
ОТ РЕДАКЦИИ: Интернет в виде странички Google до читателей Сибирской и Дальневосточной частей России тоже идет от двух недель и более? Предвидя возможный ответ «вообще не идет», предположу, что тогда вообще обсуждать нечего, потому что и заявку отправить невозможно. А судя по тому, что приведенная жалоба отправлена с копией Евгению Козловскому, до отдельных читателей не только журналы и Интернет доходят с опозданием.
День добрый.
Тут многие пишут, как «Компьютерра» помогла им написать курсовой или сдать экзамен. У меня же все плохо. Информация, которая помогла бы мне в учебе, появляется на страницах журнала на несколько недель позже, чем надо. Всегда. Потому прошу выпускать журнал хотя бы на две недели раньше.
Недавно вы совершенно верно заметили, что фамилию Bullok следует читать через У. А это, кстати, совершенно очевидно и без немецких ее родителей.
Сравните с bull.
В том же номере (и в следующем) упоминается астрофизик Leonard Susskind (Сасскинд). Что-то мне подсказывает, что совсем недавно его предки именовались на немецкий манер Зюськиндами.
Перевод имен собственных – это же вообще неблагодарное занятие. Есть ведь фамилии, о которых либо ничего, либо хорошо. Голливудская актриска Sukova при переводе становится Шуковой или Зуковой. Дети же смотрят, как не стыдно… Некоторые китайские фамилии напоминают трехбуквенные российские заборы.
Если серьезно, то «Компьютерра» – единственное неспециализированное и легкодоступное издание, где можно запросто почитать статьи, написанные не журналистами, а самыми что ни на есть учеными. За это огромное спасибо!
ОТ РЕДАКЦИИ: Мы с удовольствием будем выпускать журнал на две недели раньше, если вы взамен возьмете на себя почетную обязанность уговорить всех упомянутых самых что ни на есть ученых сдавать редакции свои статьи раньше на те же две недели.
Terralab.ru: Раз, два – горе не беда!
Вы когда-нибудь пробовали работать с виртуальными компьютерами – программами, позволяющими запустить из обычной операционной системы одну или несколько «гостевых» операционных систем в виде своеобразных приложений родительской ОС? В одном окошке – Windows 95, в другом – FreeBSD, в третьем – Linux, в четвертом и вовсе какая-нибудь DOS, Minix или MenuetOS, причем все они работают «без отрыва» от Windows XP Professional, в которой это хозяйство запущено.
И не нужно возиться с загрузчиками, создавать три-четыре раздела на жестком диске, решать проблемы совместимости операционных систем с «железом» – специальное ПО сымитирует ровно ту аппаратную конфигурацию, на которой именно эта операционная система запустится и будет функционировать без лишних вопросов. Не нужно перегружаться по десять раз на дню, если настраивать почту в Linux, переносить туда почтовые аккаунты и заниматься их синхронизацией с почтовыми программами Windows совершенно не хочется, а работать со свободной операционной системой по каким-то причинам необходимо. Не нужно опасаться, что неудачно введенная команда в свежеустановленной модной ОСи, написанной на ассемблере, угробит основную установленную на компьютере систему[По известной легенде, ОС Linux родилась в тот момент, когда Линус Торвальдс, нечаянно «позвонил модемом на /dev/hda1 вместо /dev/tty1» и таким образом вывел из строя раздел, на котором размещалась его основная рабочая система Minix. Торвальдс тогда принял вызов, засел за компьютер и в конце концов превратил свой «текстовый редактор» в полноценную POSIX-совместимую операционку. Но, боюсь, желающих повторить этот подвиг среди читателей «КТ» найдется немного]. Но программные комплексы типа VMWare Workstation или Microsoft Virtual PC 2004 – это не только идеальные «полигоны» для экспериментирования и «переходники», позволяющие запускать Windows-приложения из *nix-ориентированных систем или наоборот. Область применения подобных систем гораздо шире
//-- Кому нужен виртуальный компьютер? --// В самом деле: представим на минуту, что мы можем запустить на одном и том же компьютере (персоналке, рабочей станции, сервере) несколько виртуальных взаимодействующих, но непересекающихся машин. Что это нам дает?
Появляется возможность создания сложных «гибридных» систем, вбирающих в себя все преимущества разных операционных систем и наработанного для них программного обеспечения. Хотите поручить управление сетью Windows-машин основанному на Linux серверу, но вас почему-либо не устраивает пакет Samba? Желаете организовать роутер и прокси-сервер на базе *BSD-системы, но для других целей она вам совершенно не подходит? Нет проблем: создаем столько виртуальных систем, сколько нужно, и сочетаем в одном компьютере все их преимущества.
Зачем покупать отдельный сервер, требующий непростого и зачастую дорогостоящего обслуживания, когда с теми же обязанностями может неплохо справиться и десяток персоналок? Минимальная адаптация современных пиринговых сетей – и в локальной сети появляется надежное и дешевое виртуальное хранилище данных, «размазанных» и продублированных на компьютерах самых обычных пользователей. А «виртуальность» образующих эту устойчивую к повреждениям группу машин обеспечит сети надежную защиту от действий пользователей или каких-либо случайных «внешних факторов». Даже если пользовательский ПК, скажем, зависнет, будет взломан хакером, заражен вирусом или перезагружен, – на функционировании работающего на той же самой машине виртуального «сервера» это не скажется.
На сервере работает несколько десятков пользователей с довольно широкими правами и нужно обеспечивать их взаимную безопасность и совместимость? Можно тщательно оптимизировать настройки системы, добиваясь тончайшего и почти неуловимого баланса между обеспечением разнообразных (зачастую экзотических) пожеланий пользователей и ограничением их прав в пределах, гарантирующих, что программы юзера А не будут по субботам вечером «ронять» программы юзера Б. Можно поставить отдельный Windows-сервер, отдельный Linux-сервер, отдельный FreeBSD-сервер, отдельный NetBSD-сервер, отдельный сервер на Solaris или вообще два десятка серверов, по штуке на брата. Но проще и дешевле поставить один сервер, на котором выделить каждому пользователю по «независимой» машине, принципиально непересекающейся с другими.
На предприятии стоит один и только один сервер на базе процессоров Itanium, на котором работает корпоративное ПО, а программисты, за неимением лучшей тестовой платформы, отлаживают свеженаписанные программы и заплатки прямо на «живой» системе? Создадим им виртуальную копию корпоративного «сервера на Itanium», и проблема решится сама собой.
Появляется возможность создания «дешевых» резервных серверов, служащих для замены основного сервера в случае его отказа. Скажем, можно на одном сервере продублировать роутер предприятия четырьмя разными программами.
Уже хорошо, не так ли? А что, если мы добавим к сказанному возможности «ставить на паузу», «сохранять» и «загружать» состояния наших виртуальных машин?
Радикально упрощается процедура бэкапа и процедура переноса рабочего места (или сервера) с одного компьютера на другой (при переезде или замене оборудования). Сохранил – загрузил – все работает, причем с сохранением всех настроек, вплоть до любимого пользователем расположения ярлычков в такой-то папке.
Более того, появляется замечательная возможность, например, без каких-либо проблем загружать виртуальные машины (со всеми документами и настройками) прямо по локальной сети с сервера. Обычно для обеспечения «не-фиксированного рабочего места» (сел за любой компьютер и работаешь с ним, как со своим собственным) применяют разнообразные терминальные решения, обладающие здоровенным перечнем недостатков и ограничений. Загрузка виртуальных компьютеров по сети эту проблему решает.
Ну и, наконец, появляется чудесная возможность всюду носить свое рабочее место и домашний компьютер с собой. Вечером синхронизировал ноутбук с рабочим компьютером – и твое рабочее место словно «переселилось» на ноутбук. А затем, точно так же – на домашний компьютер. И не нужно никакого постоянного широкополосного защищенного подключения.
Впечатляет? На мой взгляд, направление чрезвычайно многообещающее и во многом революционное (ну не зря же им заинтересовалась даже Microsoft). А вот используется оно сегодня крайне редко и в основном энтузиастами, нежели массовыми корпоративными и частными пользователями. Первых отпугивает обилие разнообразных проблем, связанных с существующими софтверными виртуальными ПК[На запрос «VMWare» Google выдал порядка 1 290 000 ссылок, а на «VMWare problem» – 612 000 ссылок. Выводы делайте сами. Желающие могут поставить тот же эксперимент, заменив «VMWare» на «Windows XP», «Linux», «Apache», «MySQL» либо иное другое популярное ПО, и убедиться, что «проблемных» страничек в этом случае получается в несколько раз меньше (15—18%)]; вторых – высокая цена (от 130—300 до пары тысяч долларов за комплект ПО) и общая «тормознутость» и «примитивизм» получающейся на выходе системы. К сожалению, корень зла здесь кроется отнюдь не в «безруких программистах», не умеющих толком отладить свои продукты, нет. Вся загвоздка – в непомерной сложности точного и полного софтверного решения проблемы виртуализации.
//-- *** --// //-- Проблемы виртуализации --// Что такое современный x86-совместимый компьютер? Если кто-то скажет вам, что это довольно простая штука, – не верьте: он просто не знает о чем говорит. Примерное представление о масштабах этой, хм, технологии дает разве что техническая документация – четыре многосотстраничных тома краткой документации по архитектуре IA-32 (The IA-32 Intel Architecture Software Developer’s manual: vol. 1, 2A, 2B & 3) и еще два – по ее 64-битным расширениям (The Intel Extended Memory 64 Technology Software Developer’s guide, vol. 1 & 2). Впрочем, о последних лучше почитать в первоисточнике – пятитомном издании AMD64 Architecture Programmer’s Manual. Реализовать по этим здоровенным талмудам даже простую имитацию современного x86-процессора – огромная работа; и еще труднее – сделать такую имитацию, которая бы умела более или менее эффективно задействовать для исполнения виртуального кода ресурсы центрального процессора. Даже куда более простая и специально оптимизированная виртуальная машина Java, как известно, работает довольно медленно; надеяться же на чистую эмуляцию средствами центрального процессора чего-либо принципиально более мощного, нежели какой-нибудь ZX Spectrum на процессоре Z80, и вовсе не приходится. Поэтому все современные виртуальные компьютеры идут другим путем – не эмулируя в прямом смысле слова несколько виртуальных ПК, а запуская на одном персональном компьютере несколько операционных систем и ловко «дурача» их, с помощью разных приемов защищая от взаимного «членовредительства» и заставляя «поверить» в то, что кроме них в системе никого нет (рис. 1). Беда в том, что каких-либо приспособлений для подобного рода «надувательства» у этих «виртуализаторов» нет – им приходится выкручиваться, используя для своих целей стандартные методы (IA-32 aka 32-разрядный x86 – весьма гибкая архитектура, и во многих отношениях сделать это оказывается возможным). Однако предусмотреть все ситуации и найти ответы на все возникающие при этом вопросы – практически нереально. Разные ухищрения, на которые приходится пускаться программистам, к сожалению, являются скорее латанием дыр в ветхом днище корабля: для того чтобы кое-как, с половинным ходом доплыть до дока, такого «ремонта» хватает, а вот для длительных морских походов или бурных морей – нет.
Рассмотрим суть возникающих неприятностей на примере так называемой проблемы нулевого кольца исполнения. Кольца (rings, они же уровни приоритета – PLs, Priority Levels) – это такая хитрая система, защищающая центральный процессор от выполнения «посторонними» программами «глубоко системных» инструкций и операций, эдакий «уровень доступа» запущенной программы к системным ресурсам. В IA-32 четыре кольца, от Ring 0 до Ring 3. Чем больше номер кольца – тем меньше приоритет и тем меньше доступно работающей программе. В нулевом кольце запущенный процесс может делать все, что заблагорассудится, – ему предоставлен карт-бланш на любые операции; так что именно в этом кольце «обитает» ядро операционной системы и непосредственно взаимодействующие с оборудованием драйверы. Третье кольцо – сильно упрощенный и ограниченный мирок, в котором запущенный процесс может свободно «жить», но изменить который он не в состоянии. Здесь «живут» всяческие прикладные программы. Кольца 1 и 2 ни Windows, ни *nix-системами принципиально не используются.
В чем же проблема? Оказывается, когда мы «дурачим» виртуальную операционную систему, то не совсем понятно, в какое из колец ее следует помещать. В Ring 0, очевидно, поместить ОС нельзя – проконтролировать ее действия в этом случае не сумеет ни одна живая душа, ибо «воля» исполняющегося в этом кольце кода обсуждению или критике со стороны процессора не подлежит. Поместить операционную систему в «непривилегированные» первое, второе или третье кольца тоже нельзя: любая ОС проектируется, исходя из расчета, что выполняться она будет в нулевом кольце привилегий, а значит, отсутствия необходимого минимума маленьких, но жизненно важных для работы ее ядра инструкций не простит. Вот и приходится программистам либо заблаговременно проверять код на предмет «неблагонадежных» инструкций, ставя на их место вызовы «правильных заменителей», либо отлавливать возникающие при исполнении «неправильных» инструкций ошибки и пытаться их на лету исправлять. Легко догадаться, что реализация и того и другого выливается в большую головную боль для программистов, причем на вроде бы совершенно пустом месте. К примеру, часто «гостевую» операционную систему размещают в неиспользуемом первом кольце… но в расширенном 64-битном режиме процессор не поддерживает кольца 1 и 2, так что все соответствующие наработки «виртуализатор», естественно, отправляет в корзину. Рано или поздно количество проблем переходит в качество – и виртуальные машины становятся не только крайне сложными с программной точки зрения, но и громоздкими, медленными и ненадежными.
//-- *** --// //-- Искусство обмана. Intel Vanderpool --// Так что же делать? Отказаться от надежды на массовый виртуальный ПК? Конечно, нет! Как минимум, вместо того, чтобы заниматься замысловатой оптимизацией кода для хитроумного обмана операционной системы, можно просто внести некоторые изменения собственно в ОС, видоизменив «наиболее мешающиеся» части ядра. Подобный подход называется паравиртуализацией, он активно продвигается компанией Sun и поддержан движением OpenSource… но эту красивую картинку, к сожалению, успешно портит своими «незаменимыми продуктами» великая и ужасная Microsoft, ибо адаптировать сверхпопулярное ядро Windows NT к реалиям конкретной виртуальной машины может, естественно, только его автор; но так, как делать этого софтверный гигант не собирается (слишком уж многое нужно перелопачивать в ядре), то и сам подход получается если не тупиковым, то, по крайней мере, неполноценным. Поэтому куда интереснее второй, гораздо более простой и универсальный способ – аппаратная поддержка функционирования менеджеров виртуальных компьютеров со стороны процессора, то есть технологии виртуализации. Именно так и поступила Microsoft, разработав в тесном сотрудничестве со специалистами VMWare систему, снимающую основную «головную боль» с разработчиков соответствующего ПО.
Центральная идея Intel Virtualization Technology (ранее известной под названием Vanderpool) – введение в процессор аппаратной поддержки некой специализированной программы – менеджера виртуальной машины (VMM, Virtual Machine Manager) (рис. 1). В принципе, VMM – по всем статьям обычная программа, работающая на персональном компьютере. Однако «права» у этой «обычной» программы самые невероятные, поскольку она может вмешиваться во все мало-мальски значимые события, происходящие в процессоре. То есть, если, скажем, ядро операционной системы (работающее в обычном, ничем не ограничиваемом Ring 0) вызывает инструкцию CPUID, или читает-записывает важный системный регистр CR[Что, впрочем, неудивительно – AMD сегодня отвоевывает себе «место под рыночным солнцем», а для этого ей необходимо предлагать более совершенные и интересные решения], или произошло какое-то внешнее событие, вроде прерывания – то процессор сообщает об этом VMM и… больше ничего не делает, предоставляя VMM право реагировать на возникшее событие самостоятельно. Менеджер виртуального ПК «разбирается» в происходящем, решает, как поступить (например, может, необходимо после нажатия какой-то кнопки переключить CPU на другую запущенную операционную систему), и «программно» имитирует действия центрального процессора в подобной ситуации. Причем отслеживать разные события ему приходится довольно интенсивно: «вручную» маршрутизировать обращения операционных систем к периферийным устройствам, «вручную» загружать и переключать запущенные операционные системы, «вручную» следить за виртуальной памятью запущенных операционных систем, чтобы последние нечаянно не «покалечили» друг друга, считая себя единственными претендентами на имеющиеся физические ресурсы.
Последний пример хорошо иллюстрирует суть происходящего. Как известно, современные многозадачные операционные системы активно используют механизм виртуальной памяти, когда запущенные на процессоре программы работают с «линейными» адресами, произвольным образом отображенными в реальную физическую оперативную память (или еще куда-нибудь – например, на участок жесткого диска в своп-файле или своп-разделе). С физической памятью не работает даже сама операционная система: слишком уж это неудобно – подстраиваться под особенности конкретного ПК, и слишком опасно – когда в общей куче перемешаны данные десятков и сотен запущенных программ, и только аккуратность разработчика защищает эти данные от ошибочных действий программного обеспечения. Преобразование виртуальных «линейных» адресов в физические обычно выполняет сам центральный процессор, для чего у него предусмотрена специальная таблица трансляции адресов, в которой записано, какому «линейному» адресу какой физический соответствует (или стоит пометка, что при обращении к данному участку памяти процессору следует позвать на помощь операционную систему). Хранится эта таблица не в регистрах процессора, а в оперативной памяти (в виде трех-четырехуровневого B-дерева, если вас интересуют подробности), причем таблиц может быть сколько угодно: для переключения к другому виртуальному адресному пространству в процессоре достаточно изменить один-единственный регистр CR3 (указатель на таблицу трансляции) и выполнить специальную команду сброса и очистки кэшей CPU, в которых может сохраняться старая информация о виртуальной памяти. «Простым смертным» в лице обычных программ доступ к CR3, разумеется, закрыт, и поэтому изменить «мир», в котором программы находятся, они могут только путем обращения за помощью к операционной системе. Операционной системе «проще» – она, с одной стороны, подчиняется «общим правилам», а с другой – может эти правила самостоятельно «переписывать», работая ровно в тех условиях, которые кажутся ей наиболее приемлемыми. Скажем, если ОС срочно потребуется записать что-то по физическому адресу 0x00123456, она вначале создаст в таблице трансляции своих виртуальных адресов ссылку на соответствующий участок оперативной памяти (отобразив его в то место виртуального линейного пространства ОС, которое покажется ей самым удобным) и затем обратится по свежесозданному виртуальному адресу. Для «обычного» же процесса (который, строго говоря, почти ничем не отличается от процесса ядра операционной системы) подобная «лазейка» к, скажем, «соседям» по компьютеру закрыта – ему просто-напросто не дадут увидеть собственную таблицу трансляции, выведя ее за пределы «видимости» виртуального пространства его памяти либо защитив эту область памяти от записи (здесь тоже используется та самая таблица трансляции – в ней можно указывать права доступа к виртуальным адресам). Все замечательно, все удобно, никаких проблем.
Но стоп, – скажет здесь читатель, – а что же будет, если мы запустим две операционные системы и одна из них решит отобрать для своих целей кусочек физического, а не виртуального пространства памяти другой операционной системы, отобразив его в своей таблице трансляции? В обычных условиях это фатальная ошибка, которая быстро приведет две совместно работающие операционки к краху. Но если у нас есть VMM, то ситуация в корне меняется, ибо мы теперь можем запущенную операционную систему «одурачить», перехватив соответствующее обращение и подсунув ей не настоящий CR3, а специально подготовленную «пустышку». ОС, наивно полагая, что она полностью контролирует виртуальную память компьютера, на самом деле будет всего лишь изменять никак не связанную с настоящей таблицей трансляции область оперативной памяти. А обращения к ней, используя стандартные же механизмы виртуальной памяти, будет перехватывать все тот же VMM и синхронизировать в соответствии с ними настоящую таблицу трансляции. Красиво придумано, не правда ли? Собственно виртуальной машины у нас нет, просто мы тщательно контролируем работу операционной системы и при необходимости ловко манипулируем ею.
Набор ситуаций, «прерывающих» выполнение обычных программ и приводящих к вызову VMM, довольно гибко настраивается – вовсе не обязательно, скажем, реагировать на все обращения операционных систем к компьютерным портам ввода-вывода: достаточно указать, какие порты для какой операционной системы будут «выбрасывать» ее к VMM, а какие – работать как если бы VMM не существовало в природе. Причем догадаться о том, что ОС запущена «под неусыпным контролем», практически невозможно: VMM может, например, точно таким же образом фальсифицировать обращения к CPUID (информация о процессоре и поддерживаемых им технологиях), после чего запущенная на Pentium D операционная система будет искренне полагать, что работает, скажем, на Pentium 3 и что никакой поддержки технологий виртуализации этот процессор не предоставляет.
Фальсифицируется все – даже время. Для «подделки» данных счетчика тактов TSC (Time Stamp Counter) в Vanderpool, например, предусмотрен даже не один, а целых два способа – автоматический (к значению TSC прибавляется заданная VMM константа) и «ручной» (перехватываются обращения к RDTSC); аналогично нетрудно перехватить и обращение ОС к системному таймеру с запросом текущего времени. Эдакое «1984» в рамках одного конкретно взятого процессора с VMM в роли Министерства Правды.
В качестве завершающего штриха в описании Vanderpool Technology (VT) приведем блок-схему, поясняющую функционирование технологии и назначение десяти (да-да, всего десяти!) входящих в нее инструкций (рис. 2). Заметим также, что все вышесказанное относилось к варианту VT-x для x86-совместимых процессоров. Кроме нее существует слегка отличающаяся VT-i для процессоров Itanium, но работает она по тем же самым принципам, так что останавливаться на ней я не буду.
//-- *** --// //-- AMD Pacifica: «мы пойдем своим путем!» --// Компьютерный мир помешался на совместимости: процессоры Intel и AMD сегодня поддерживают практически идентичные наборы инструкций, а «заклятые друзья» ревниво следят за тем, чтобы процессор конкурента никаких заметных преимуществ перед «родным» процессором не имел. Так, AMD скопировала у Intel набор инструкций SSE (1/2/3); Intel у AMD – 64-битную технологию AMD64 и входящий в ее состав NX-бит: называются они по-разному (SSE у AMD превратилась в 3Dnow! Professional; AMD64 у Intel – в EM64T), но большого значения для ПО это, по сути дела, не имеет. Просто есть некий софт (оптимизированный под SSE ли, под AMD64 – неважно), и производители процессоров стараются сделать все возможное, чтобы этот софт (независимо от того, для какого процессора он разрабатывался) мог запускаться и на их CPU. Из-за этих-то пресловутых требований совместимости до сих пор живет архитектура x86, создававшаяся скорее для микропроцессоров («ноги» i8086 растут из предназначавшегося для калькуляторов i8080) и крайне неудобная для любых современных процессоров (что Athlon, что Pentium вынуждены ее «на лету» преобразовывать в более подходящий для обработки формат). «Хоронили» ее по меньшей мере трижды – в связи с выходом процессоров «правильных» архитектур. Однако ж некогда процветавшие ветви RISC-машин сегодня зачахли, архитектура VLIW не получила должного распространения, а x86 и поныне «живее всех ее хоронивших» – колоссальный парк ПО, накопленного для этой архитектуры, сделал ее практически «непотопляемой». И в свете этого полная несовместимость технологий виртуализации от AMD и от Intel звучит как гром среди ясного неба.
Концептуально – перед нами все тот же выделенный менеджер виртуальных машин с широкими возможностями для перехвата управления у обычных операционных систем и неограниченными правами доступа. Практически – Pacifica проще, функционально богаче и «дружественнее» к разработчику VMM3 (рис. 3). Судите сами: например, можно отказаться от хитроумной и трудоемкой технологии подмены таблиц трансляции виртуальной памяти, используя двухуровневые таблицы. Обычно в таблице трансляции виртуальной памяти записываются физические адреса, но ведь там можно хранить и виртуальные адреса «второго уровня», для которых тоже будет существовать своя, определяемая исключительно VMM, таблица. То есть так же, как операционная система обеспечивает запущенным в ней программам персональные «линейные» участки виртуальной памяти, VMM просто-напросто предоставляет каждой из запущенных операционок свою «виртуальную физическую» оперативную память. И точно так же, как обычная программа не замечает подвоха в работе оперативной памяти, «одураченная» операционная система не будет подозревать, что работает она не в физическом, а в виртуальном адресном пространстве. Не нужно ничего отлавливать, перехватывать и синхронизировать – все происходит в автоматическом режиме, без малейших усилий со стороны VMM. Не совсем понятно, почему Intel отказалась от этого очевидного и радикально упрощающего жизнь программистам шага, однако в текущем варианте несчастные программисты у Intel фактически вынуждены будут дублировать основную функциональность ядра операционной системы (в вопросах, касающихся управления памятью).
Вторая принципиальная «фича» AMD’шной виртуализации – это Tagged TLB, тегированный кэш трансляции виртуальных адресов. TLB представляет собой буфер, позволяющий процессору не заниматься каждый раз чрезвычайно трудоемкой и медленной процедурой преобразования виртуального адреса в физический, а сделать это единожды и впоследствии быстро обращаться к уже вычисленным парам соответствия «виртуальная память – память реальная». Понятно, что при каждом переключении от одной программы к другой (не говоря уже о переключении от одной операционной системы к VMM и обратно), когда процессору приходится переключаться между разными виртуальными пространствами памяти, этот буфер со всей ранее накопленной информацией приходится сбрасывать – в новом виртуальном пространстве старым виртуальным адресам будут соответствовать совсем другие «физические». А значит, каждое переключение к VMM и обратно – это вопиющее расточительство процессорных ресурсов, десятки и сотни тысяч потраченных на восстановление потерянной информации тактов. В реализации AMD буфер TLB запоминает, какой из виртуальных операционных систем какой адрес принадлежит. В обычной ситуации запоминать эту информацию бессмысленно – при переключении задач TLB все равно быстро заполнится новыми адресами, вытесняющими старые; а вот для быстрого переключения от OS к VMM и обратно (когда, возможно, работа VMM не займет и сотни тактов процессорного времени) подобная оптимизация приходится как нельзя более кстати.
Следующий приятный «пунктик» в программе AMD – аппаратная защита контроллера DMA. В обычных условиях этот контроллер позволяет периферийным устройствам работать с оперативной памятью, не привлекая центральный процессор. Например, CPU может не заниматься рутинной и монотонной задачей передачи данных неторопливому винчестеру, а скинуть всю необходимую для сохранения информацию в оперативную память, сообщить жесткому диску, что, откуда и куда сохранять из памяти на диск – и, не дожидаясь окончания этой операции, заняться каким-либо другим делом. Это удобно, это быстро, но в то же время это грандиозная дыра в безопасности в тех случаях, когда две операционные системы, запущенные на одном компьютере, требуется изолировать друг от друга. Ведь никаких проверок на то, что периферийное устройство может запросить совершенно «левый» адрес физической оперативной памяти (если, допустим, по некоей договоренности между драйвером и устройством, по во-о-он тому физическому адресу вроде бы ничего не должно располагаться и его можно использовать как вспомогательный буфер при работе), DMA обычно не производит. Специалисты AMD это упущение исправили – теперь все устройства могут быть разбиты на несколько виртуальных доменов (изначально – по четыре домена на каждый процессор), а DMA-контроллер может проверять, разрешено ли устройству из такого-то домена чтение данных из такой-то области памяти.
Наконец, AMD уже сегодня предоставляет основную часть возможностей еще даже неопубликованной технологии защиты данных Intel LaGrande, а именно – «безопасный» запуск виртуальной операционной системы. Не зря же Intel называет свою технологию VT, а AMD свою – SVM (Security & Virtual Machine). Если быть более точным, то специальная инструкция SKINIT позволяет процессору запускать гарантированно безопасный загрузчик – крошечный (64 Кбайт) кусочек подписанного цифровой подписью кода, который затем может проверить и загрузить «безопасный» VMM или «безопасное» ядро обычной операционной системы. Сам загрузчик проверяется специальным аппаратным модулем TPM (которые уже активно устанавливаются в серийные материнские платы), ну а дальнейшая проверка надежности загружаемого этим загрузчиком кода – целиком и полностью лежит на собственно загрузчике. В результате появляется возможность настроить компьютер так, чтобы загружающийся при старте компьютера VMM и (или) запускаемые им операционные системы соответствовали некоторому заданному и аппаратно прошитому «стандарту» (это, например, может гарантировать, что обладающий широчайшими возможностями VMM не станет «шпионить» за клиентским ПО, а на «брэндовом» компьютере запустится только подписанная лицензионная копия MS Windows).
AMD Pacifica пока не в полной мере поддерживает виртуализацию устройств ввода-вывода (как распределить между виртуальными операционными системами реальную периферию – головная боль VMM), как и не в полной мере обеспечивает безопасность каналов ввода-вывода (проще говоря, от подцепленного к периферийному кабелю «жучка» такая защита не спасает), однако все равно можно утверждать, что все принципиально важные вопросы защиты операционных систем и эффективной виртуализации она решает. У корпорации Intel в последнее время и без того хватает неудач, так что я бы очень хотел написать, что черная полоса для нее уже закончилась и анонсированная гораздо раньше конкурента технология виртуализации позволяет ей наконец-то вырваться вперед, но… Да, Vanderpool – замечательная технология, однако Pacifica обходит ее по всем основным показателям.
//-- Выводы --// Не будем сейчас затевать споры о том, чье решение лучше и перспективнее. Со своей главной задачей – запуском произвольного количества виртуальных операционных систем и обеспечением их эффективной одновременной работы – справляются обе технологии, а за Intel стоит все-таки больший сегмент рынка. Вариант AMD смотрится гораздо интереснее, однако для поддержки всех своих возможностей он требует специально заточенных «под AMD» менеджеров виртуальных операционных систем, принципиально несовместимых с Intel Virtualization Technology. Чтобы совсем уж явно не проводить «водораздел» между VMM «для Intel» и «для AMD» (все-таки VMM – очень сложное и трудоемкое программное обеспечение), в Pacifica предусмотрен специальный, скажем так, «режим совместимости» SPT, в котором двойная трансляция адресов виртуальной памяти отключена и VMM «для Intel» можно с небольшими переделками превратить в «урезанный» VMM «для AMD»[Который, правда, даже в таком варианте получается более совершенным и «интересным», нежели Vanderpool. Инженеры AMD, как обычно, сделали все, чтобы обойти коллег из Intel]. Клиентское ПО и операционные системы переделывать не придется и подавно: с «потребительской» точки зрения VMM в компьютере вроде бы как и не существует.
Первые процессоры Intel с поддержкой VT-x должны появиться уже в этом году: по крайней мере, в начале года обещания о поголовной «виртуализации» Pentium 4 прозвучали, а новые семейства чипсетов i945—i955 эту технологию поддерживают уже сейчас. Правда, судя по срокам анонса VT-x для процессоров Xeon (первый квартал 2006 года), возможно, мы увидим эту технологию только в 65-нм процессорах Intel. Зато как в десктопных, так и в мобильных: будущий двухъядерный Pentium M «Yonah» будет поддерживать Vanderpool. Технология VT-i тоже должна появиться в новых процессорах Itanium 2 в конце этого года.
AMD обещает поддержку Pacifica в своих новых процессорах начиная с первого квартала следующего года – а именно в Athlon 64, предназначенных для Socket M2 и рассчитанных на использование оперативной памяти DDR2. Тогда же Pacifica появится и в серверных процессорах Opteron.
С менеджерами VMM, которые фактически должны стать обязательным дополнением к операционной системе для ПК, все куда туманнее – своих решений пока не представил ни один из вендоров. Хотя, без сомнения, VMM наверняка выпустят компании Microsoft, VMWare и кто-нибудь из сообщества OpenSource. Кстати, последнему, вероятно, будет светить самое радужное будущее – даже если Microsoft, как обычно, сделает свой продукт бесплатным.
ОГОРОД КОЗЛОВСКОГО: Синусоида
Давний главный редактор «Компьютерры» Георгий Борисович Кузнецов попал однажды в довольно замысловатую ситуацию, которую, разрешив, и описал. Крутой по тем временам американский модем Георгия Борисовича (Courrier, сколько помнится) стал вдруг, ни с того ни с сего, рвать связь. Чего только Кузнецов ни проверил тогда, чего ни перепробовал, пока ему не пришло в голову взять в руки вольтметр и померить напряжение в электрической сети. Оно оказалось где-то в районе 205 вольт, и заморский модем принял это за свинство, в условиях которого ни один порядочный прибор работать не станет. Хотя бы по чисто принципиальным соображениям.
Конечно, система Георгия Борисовича была подключена к электросети через источник бесперебойного питания (ИБП или, по-ихнему, UPS), однако через простенький, так называемый линейно-интерактивный. А линейно-интерактивные ИБП, когда напряжение в сети наличествует, работают так: они пропускают электричество сквозь себя как оно есть (отбирая по мере необходимости капельку мощности для подзарядки аккумулятора), а если напряжение заметно падает или заметно же поднимается (процентов на двадцать от номинала), – включают так называемый бустер, который повышает его или же понижает. Бустер представляет собой обычный трансформатор с цельной первичной обмоткой и составной вторичной: когда напряжение надо повысить, добавочная обмотка подключается ко вторичной прямо, когда понизить – противотоком. В связи с чем, как правило, настроить величину этих процентов линейно-интерактивный ИБП не позволяет. Поэтому, когда напряжение падало не на двадцать процентов, а, положим, на девятнадцать, – его ИБП и пропускал. И модем – бунтовал.
//-- *** --// Георгий Борисович вышел тогда из положения, купив заметно более дорогой ИБП следующего класса, так называемый on-line, и проблема решилась. Естественно: ведь on-line UPS действуют совсем иначе: независимо от входного напряжения, они преобразуют его в постоянные 12 вольт, после чего вторым преобразователем из 12 делают снова 220. И на выходе мы получаем точно нужную величину, потому что 12 вольт уже стабилизированы. Что же касается формы сигнала получаемого переменного тока, – она зависит от схемотехники второго преобразователя и может как быть прямоугольной, так и, благодаря дополнительным электротехническим навескам, в той или иной степени приближаться к синусоиде.
Что касается меня, – то ли мне больше повезло с местом жительства (хотя это вряд ли), то ли – с аппаратурой, менее склонной к алиментарной дистрофии, – так или иначе, мой простенький линейно-интерактивный ИБП от московской фирмы NeuHaus (corp.nhs.ru, где их делают на самом деле, я не в курсе; где-то, кажется, на Тайване) исправно проработал лет шесть или семь и никаких проблем мне не создал.
Но тут случилось в Москве знаменитое веерное отключение. Слава богу, мой район оно не задело, – однако целую неделю после этого электричество у меня дома… мигало. То есть вырубалось на какую-то секунду, а то и ее долю. И вот за эту секунду мой компьютер успевал выпасть в нуль, что несколько раз привело к потере дорогих для меня результатов творческой работы. Все стало понятно после первого же мигания: вот уже, наверное, несколько месяцев мой ИБП работал в режиме, что называется, шунта. Это меня, конечно, огорчило, но не удивило: срок жизни любого кислотного аккумулятора, вроде автомобильного (а в ИБП именно такие и применяются), исчисляется несколькими годами (по автомобильному опыту – пять лет – максимум), так что Бобик сдох в положенный срок. Горько вздохнув, я полез в Интернет и буквально в тупик стал от обилия предложений, выбрать из которых было совершенно невозможно, ибо по сопутствующей предложениям информации понять разницу между устройствами от разных производителей или разницу между моделями одного производителя было практически невозможно. Единственное, на что я ориентировался, – это на принцип работы (поскольку on-line-способности за эти годы не понадобились мне ни разу, – я решил и не переплачивать вдвое) и поддерживаемую мощность. На моем старом она была 600 ВА, и ее, по общему впечатлению, вполне хватало.
В общем, считается, что стандартный компьютер со стандартным же ЭЛТ-монитором (мелочевку вроде модемов или сканеров в расчет можно не брать или положить на них 5—10 процентов общей мощности) легко умещается в 500 ВА, – но мой компьютер не вполне стандартный и может съесть несколько больше.
(Забегая вперед, скажу, что новый ИБП поддерживает мощность в 800 ВА и умеет замерять ее практический расход. В результате этих замеров я понял, что моя система в нормальном, легком режиме отнимает у ИБП около 65 процентов его возможностей, а когда процессор работает на полной мощности – как, например, в случае видеорендеринга – и вентиляторы охлаждения раскручиваются вовсю, – до 80—85 процентов.)
//-- *** --// Итак, ничто в Интернете меня особо не привлекло, и я рискнул позвонить в сервис-центр NeuHaus’а в слабой надежде на то, что, хоть модель моего ИБП по нынешним меркам почти антикварная, – вдруг да найдутся аккумуляторы на замену. И когда выяснилось, что «никаких проблем – конечно, найдутся, и стоить это будет меньше 15 (!) долларов», – я решил не искать добра от добра[Впрочем, Сережа Леонов уверяет, что аккумуляторы во всех ИБП стандартные, продаются на любом рынке по цене примерно 10 долларов и меняются даже проще, чем в авто. Но сэкономленные на этом деле два-три доллара, вероятно, ушли б на бензин до рынка, да и время чего-то все-таки стоит!]. Но когда привез свой ИБП в NeuHaus, встретил там старого знакомого Валеру Суханова, их PR-менеджера, и он мне предложил поменять не батареи, а сам ИБП: на новую модель, полную технологических изюминок. На что я, естественно, с удовольствием согласился.
Новая модель тоже была из класса линейно-интерактивных (забавно, что и старую, мою, называемую SmartLine, они до сих пор с продаж не сняли) и называлась SmartUltra, причем мне предложили младший в линейке, 800-вольтамперный вариант (а линейка тянется аж до 3000 ВА), которого, впрочем, должно было хватить – и хватило! – с запасом. Сам корпус оказался несколько больше, но все же, хоть впритык, а уместился на старое место в нижней нише компьютерного столика. Две RJ-розеточки для защиты от всплесков напряжения телефонной линии остались на месте, зато «питательных» разъемов прибавилось с четырех до шести. Но, пожалуй, главное – что над кнопочками и светодиодиками передней панели появился большой, внятный и яркий, с модно-голубой подсветкой жидкокристаллический экран. Он показывает уровень заряда батареи, уже упомянутый мною процент использования мощности, а также состояние бустера (если он включен на повышение, на экране возникает линия с подъемом, если на понижение – соответственно со спуском) и постоянно, назойливо мигает по поводу отсутствия заземления (старый делал это куда менее настырно, зажигая красный светодиод на задней стенке, которого, по счастью, не было видно). У более мощного SmartUltra, говорят, на дисплее можно еще увидеть и количество минут, оставшихся до полного истощения аккумуляторов.
Последнее из замеченных мною приятных изменений – это возможность подключиться к компьютеру для обратной связи не только по традиционному для ИБП COM-порту, но и по USB. Забавно, что во встроенной в Windows ХР «питательной» закладке такая идея не предусмотрена вовсе: предлагается выбирать только из COM-портов! Кстати, емкости свежей батареи хватает на спокойную работу моей системы в течение двенадцати-четырнадцати минут, чего, как вы понимаете, с головой хватает, чтобы запомнить данные и не наплодить на винчестерах потерянных кластеров. Позволяет SmartUltra и так называемый холодный старт, что, впрочем, для ИБП давно уже не новость.
Больше того: на задней стенке устройства стоит рядок DIP-переключателей, которые, согласно приклеенной рядом табличке, позволяют задавать параметры выходного напряжения, – правда, только при работе от батареи: от 220 до 240 вольт.
Но ребята из NeuHaus едва ли не главной изюминкой SmartUltra считают «синусоидальную выходную характеристику». Я даже ухо прикладывал к новому ИБП, чтобы выяснить, не стоит ли там классический генератор, дающий эту самую классическую синусоиду, но шума подшипников не обнаружил (шутка). Конечно, получить синусоиду вместо череды прямоугольников сложнее, и требует это добавочных электротехнических и чисто электронных элементов, которых, при вскрытии корпуса, оказалось прямо-таки неожиданное множество[Собственно синусоиду формирует посредством широтно-импульсной модуляции единственный PIC-микроконтроллер – С. Л.], и, соответственно, затрат (что отчасти, наверное, повинно и в цене SmartUltra – около 200 баксов по price.ru: ровно посерединке между средними ценами на «прямоугольные» линейно-интерактивные и on-line-ИБП), но возникает вопрос: а на фиг она, синусоида, в данном контексте нужна? Ведь импульсным блокам питания компьютерной техники вообще все по барабану: частота, переменность-постоянность, полярность, форма напряжения… Они все равно все выпрямляют и сглаживают, после чего и используют.
В буклете NeuHaus на этот вопрос отвечают так: она позволяет держать SmartUltra для питания видео/аудиоаппаратуры. Спору нет, сегодня, когда всяческих видеорекордеров развелось, как тараканов, порой может стать обидно, если из-за неполадок с электричеством прервется назначенная (а еще обиднее – уже идущая) запись. Да и если музыку слушаешь, не хочется прерываться посередине трека. Но вся современная аудио/видеоаппаратура применяет ровно такие же (по принципу) импульсные блоки питания, как и аппаратура компьютерная, – так что и ей синусоида по барабану[Среди известных мне устройств, критичных к синусоиде – тиристорные регуляторы ламп накаливания – С. Л.]. Ну, разве что речь пойдет о чем-нибудь устаревшем, в сущности антикварном, с блоком питания трансформаторным (среди которого уж видео-то рекордера точно не найдешь!), или о компьютерных колонках (их блоки питания практически всегда трансформаторные, но отнести их к разряду видео/аудиоаппаратуры можно лишь с очень и очень большой натяжкой, хотя все равно – приятно).
Пожалуй, единственный выигрыш, который на сегодня теоретически можно получить от чистой синусоиды, – отсутствие импульсных наводок от силовых проводов питания на провода сигнальные.
И самое главное – очень трудно провести реальный эксперимент: запитать десятка два разного класса усилителей от ИБП с прямоугольничками и от ИБП с синусоидой и послушать с завязанными глазами. Впрочем, если NeuHaus возьмет на себя организацию серии таких слепых тестов – с огромным любопытством приму в них участие.
ТЕМА НОМЕРА: Хорошо забытое новое
В начале этого года разработчики были разбужены новостью о рождении «нового веба». Привыкшие скептически воспринимать бурные восторги, программисты глянули в корень и решительно заявили, что пользуются всеми этими «революционными» технологиями уже несколько лет. Основатель американской компании Adaptive Path, который поднял весь этот шум, еле успевал уворачиваться от упреков, язвительных замечаний и «вопросов на засыпку».
Речь идет о подходе, который с легкой руки американцев получил название AJAX. Если верить Adaptive Path, это слово – вовсе не попытка придумать звучное название для торговой марки, под которой можно было бы продвигать «новый веб». Просто использовать короткое название гораздо удобнее, чем зачитывать длинный перечень технологий, которые образуют AJAX. Название можно расшифровать на понятном английском языке: Asynchronous JavaScript + XML. Это не отражает всего набора используемых технологий, но дает представление о сути.
Сторонники AJAX утверждают, что в самом ближайшем будущем мы увидим новый Интернет. Пользователи забудут о белых страницах в браузерах и нервном постукивании пальцами в ожидании загрузки. Сайты избавятся от своей обычной заторможенности и научатся гораздо быстрее реагировать на наши действия. Наконец, мы почти забудем слово «веб-приложение», потому что, скажем, работа с почтовым ящиком через веб-интерфейс будет протекать столь шустро и необременительно, что пользователя начнут охватывать сомнения, не запустил ли он по ошибке какой-нибудь Outlook или The Bat!.
Тем не менее скептики упрямо напоминают, что у «революционных идей» солидный возраст, что, мол, годы уже не те, чтобы строить планы «мирового господства». Если бы этой идее было действительно суждено перевернуть Сеть с ног на голову, то это бы уже давным-давно произошло. А так AJAX не больше чем очередной рекламный пшик, которым вознамерилась «пропиариться» некая компания из Сан-Франциско.
Однако все эти размышления – лишь гадание на кофейной гуще. Между тем нашумевший подход взяла на вооружение Google, и AJAX быстро стал частью интернет-действительности.
Любители Java и JavaScript, обратите внимание на сайт под названием JavaPortal, где собрано большое количество статей по работе с Java (апплеты, классы, примеры, FAQ) и JavaScript (вопрос-ответ, примеры). Все разделы «вопрос-ответ» созданы на основе присылаемых авторам вопросов. И, похоже, приходит их немало, раз эти разделы разрослись до таких размеров. Советую заглянуть в раздел под названием «Мобильная Java»: статьи о программировании игр для мобильных телефонов, о создании WAP-сайтов при помощи Java и многое другое.
//-- Он знал, он знал --// Многим пользователям Сети уже довелось познакомиться с сервисом Google Suggest. Тем, кто этого еще не сделал, настоятельно рекомендую[Последняя «бета» живет здесь]. Это не только наглядная демонстрация возможностей AJAX, но и действительно полезная штука. На первый взгляд – ничего необычного. В поле для поиска вводится ключевое слово. Мгновение – и Google предложит вам несколько вариантов поисковых запросов, а также статистику по ним. Создается впечатление, что поисковик в буквальном смысле реагирует на каждое нажатие клавиши. Попробуйте немного изменить слово – набор подсказок изменится. При этом страница и не думает перезагружаться.
Каким образом сайт «догадывается», что вы собираетесь искать? Откуда берет информацию? Конечно, Google не мог заранее «знать», о чем его спросят. Он просто сумел почти незаметно «спросить» об этом хранилище данных и получить от него ответ.
Необычные ощущения порождает и работа с почтовым сервисом Gmail. Благодаря щедрости владельцев и всяким дополнительным завлекалочкам, многие российские пользователи доверили ему свою переписку. Фокусы начинаются уже при входе: если ввести неправильный пароль, перезагружается только форма авторизации, а не страница целиком. Наверняка вы заметили, что перемещаться между сообщениями внутри ящика можно очень быстро – дозагружается лишь центральная часть страницы, где выводится новая информация, – в отличие от Mail.ru, HotMail.com и многих других почтовых сервисов, где при просмотре каждого письма пользователя заставляют загружать воз баннеров и трехэтажное меню. Gmail тоже активно использует подход, лежащий в основе «нового веба».
В последнее время идеи AJAX набирают популярность и получают развитие во все новых проектах. В числе «зараженных идеей»: онлайновый сервис фотоальбомов Flickr, проекты Google – Maps и Group, Virtual Earth от Microsoft, почтовый сервис America Online – AIM Mail и многие другие.
Сайт Webmascon посвящен веб-дизайну. Не веб-программированию, а именно концепциям веб-дизайна. Почти все статьи переведены с английского. Как сказано в разделе «О проекте Webmascon», «…цель проекта – донести русскоязычному населению Интернета информацию по веб-дизайну, которая доступна только на английском языке. Более глобальная цель – пропаганда качественного, чистого, культурного и стандартного веб-дизайна». Cейчас на Webmascon’e больше трехсот статей (в месяц появляется от 3 до 10 новых). Да и сам дизайн сайта – очень стильный, его часто приводят в пример, как нужно делать сайты. Статьи делятся на категории: «Информационная структура», «(X)HTML», «Юзабилити», «Реклама и продвижение», «Менеджмент проектов», «Текст и контент», «Проектирование», «Якоб Нильсен», «Тестирование» и многие другие. Проект некоммерческий, все статьи пишутся или переводятся владельцем сайта и его добровольными помощниками.
//-- Проверенная команда --// AJAX – это не отдельная технология, не программа и даже не среда разработки. Это связка из нескольких технологий, которые умело выстроены «в цепочку» и способны к слаженной и дружной работе. Действительно, все игроки этой команды известны довольно давно.
За отображение информации на сайте отвечает HTML в сочетании с каскадными стилями – CSS. С этими технологиями знакомы многие пользователи Сети, которые хотя бы однажды мечтали завести себе домашнюю страничку.
HTML никогда не был большой премудростью: страничка состоит из элементов, которые заключаются в теги. Достаточно знать их названия и можно легко превратить любой текст в заголовок, ссылку, выделить его жирным шрифтом или курсивом. HTML, по сути, предназначен для разметки содержимого страницы – вот здесь будет текст, а вот здесь – список.
Про CSS (Cascading Style Sheets) слышал, наверное, каждый, но используют каскадные стили далеко не все создатели сайтов. Дело в том, что, в принципе, можно обойтись лишь HTML, не путаясь в дебрях стилевых настроек. Однако желание упростить себе жизнь создаст дополнительные проблемы, как только вам захочется что-нибудь поменять. Стили позволяют хранить все инструкции по отображению информации отдельно. В общем, можно сказать так: в HTML пользователь указывает, какую информацию следует вывести на экран, а в CSS – как она будет выглядеть (цвет, шрифт, размер и т. д.).
Верхушка айсберга, как можно заметить, полностью лишена чего-либо революционного. Собака по имени AJAX зарыта в связке следующих трех технологий – XML, XSL[См. дальше. Вообще, XSL не является обязательным элементом AJAX. Достойно представить информацию на сайте сумеет и сам JavaScript3] и JavaScript.
XML (eXtensible Markup Language) представляет собой популярный формат хранения и обмена данными. Звучит солидно, на деле же оказывается текстовым файлом, в котором хранится размеченная информация. Предположим, есть желание представить архив публикаций «Компьютерры» в виде XML-файла. Открываем Блокнот и создаем простенькую структуру.
Article 1 Article 2 Article 3
Разумеется, реальные XML-структуры гораздо сложнее. Однако уже в этом простом примере легко заметить существенное отличие XML от HTML. Если создавая веб-страничку, мы ограничены готовым набором элементов, то XML позволяет придумывать собственную структуру данных. На эту структуру не налагается никаких дополнительных ограничений, от пользователя требуется лишь следовать строгим правилам. Легкомысленные вольности вроде незакрытых тегов и перепутанных элементов, которые великодушно «прощает» HTML, в XML не пройдут.
Ради чего привыкать к порядку? Десяток ответов на этот вопрос может привести любой разработчик. С помощью XML можно создать структуру данных, то есть упорядочить информацию определенным образом. После этого, используя один и тот же XML-файл, можно отображать эту информацию по-разному[Например, на витрине интернет-магазина и в корзине покупателя вид товара может отличаться], причем ее сможет использовать не только движок сайта, но и любые другие программы[Тот самый файл с товарами легко доступен из бухгалтерской программы и системы управления складскими запасами].
Еще больше возможностей открывается, если включить в игру XSL (eXtensible Stylesheet Language). Эта технология позволяет развести контент и его представление по разным углам. В файлах XSL содержатся инструкции, как именно показывать страницу. Получив XML-размеченные данные, браузер «заглядывает» в шаблон и демонстрирует веб-страницу пользователю.
С такими инструментами управлять информацией, представленной на сайте, намного легче. Вот пример из жизни: список ссылок на статьи стал слишком длинным, давно пора выстроить его в две колонки. Проще простого – нужно отредактировать XSL-шаблон. Во время работы не придется прорубаться сквозь данные, следя за ссылками и командами разметки в постоянном страхе удалить что-нибудь ценное, ведь весь контент «проживает» в отдельном XML-файле.
XML и XSL обеспечивают удобное манипулирование информацией, однако им не дано стать движущими элементами всей цепочки. Тут роль посредника и координатора отведена JavaScript. Он «оживляет» пеструю технологическую связку под названием AJAX, поэтому без его участия никакие чудеса «нового веба» не возможны.
Технологическую начинку AJAX составляют давно и хорошо известные ингредиенты, однако изюминка подхода – в аранжировке элементов. Другими словами, камень и палка в лапах человекообразной обезьяны совсем не обязательно представляют собой топор.
Обратите внимание на портал Woweb (www.woweb.ru) – в частности, на два сайта: «Статьи и документация на Woweb» (doc.woweb.ru) и «Скрипты на Woweb» (script.woweb.ru).
На первом вы найдете множество отличных статей на самые разные темы, так или иначе связанные с разработкой веб-сайтов. Одни заголовки разделов чего стоят: «Flash», «Photoshop», «Базы данных», «Apache», «Истории веб-мастеров», «Веб-технологии», «Программирование для Web» и др.
Второй сайт – неистощимый источник скриптов для всего Рунета. Их там тысячи, причем категории самые разные: «PHP», «Perl», «Java-апплеты», «JavaScript», «ASP» и т. д.
В англоязычном Интернете скрипты, написанные на PHP, Perl, Java и ASP, можно найти на ресурсе Hot Scrpits (www.hotscripts.com); там около десяти тысяч скриптов на самые разные темы.
//-- Обмен данными «из-под полы» --// Понять преимущества альтернативного подхода сможет лишь тот, кто знает о недостатках традиционного.
Что происходит в недрах обычного динамического сайта? Стоит пользователю, например, кликнуть по ссылке или выбрать какую-нибудь опцию из выпадающего меню, как исполнительный браузер немедленно отправит полученную информацию на сервер. Неприученный к самостоятельной работе, браузер предоставляет другим решать все важные вопросы. Серверу необходимо разобрать поступившие данные, понять их и правильно отреагировать. В результате браузер будет удостоен ответа в виде новой полной веб-страницы. Да и сервер не всесилен, поэтому, если его начинают засыпать вопросами со всех сторон, он вполне может взять тайм-аут.
А как же главное действующее лицо – пользователь? Ему остается покорно ждать, пока браузер с сервером решают свои проблемы и грузят для него новую страницу. Время ожидания складывается из «сообразительности» сервера и скорости интернет-соединения.
Неужто AJAX способен избавить веб-интерфейсы от извечной заторможенности? Что ж, популярные Google-сервисы показали, что приложения в Сети способны работать гораздо проворнее, чем привыкли ожидать терпеливые пользователи.
Вернемся к технической начинке «нового веба». Браузер получает в свое распоряжение XML-файл. Далее на арену выходят еще два игрока – JavaScript и XMLHttpRequest. Первый из них выступает в роли распорядителя, а второй отвечает за получение информации с сервера.
XMLHttpRequest играет немалую роль в рождении «чуда». Именно он позволяет тихонько отправлять асинхронные запросы серверу через протокол HTTP и столь же незаметно получать всю необходимую информацию в виде XML[Строго говоря, могут использоваться и другие форматы – например, plaintext].
Скажем, вы пытаетесь ввести какое-то слово в окошко поиска на Google Suggest. С помощью XMLHttpRequest браузер отправляет запрос на сервер и ожидает ответа. Сервер присылает необходимые данные в виде XML. Расторопный JavaScript разбирает полученные данные и заботливо заворачивает их в HTML-теги. Момент… и ниже окна поиска отобразилось несколько полезных «подсказок».
Можно использовать и более изящное решение, если привлечь «запасного игрока» – XSL. Получив в свое распоряжение XML-файл и XSL-шаблон, современный браузер способен сгенерировать правильную HTML-страницу. Таким образом, в его «голове» оказываются сами данные, их структура и внешний вид для пользователя. «Поумневшая» программа – настоящая находка для JavaScript’а, которому по долгу службы в AJAX приходиться управлять информацией. Скрипту доступен XML-образ веб-страницы, который заботливо хранит в своей памяти браузер, поэтому манипулирование данными не составляет для него особого труда.
Ловкая комбинация технологий – и никакого мошенничества. Короче говоря, часть функций сервера по сборке итоговой страницы из данных и таблиц переходит к браузеру, вооруженному JavaScript’ом.
«Компьютерные шрифты» от портала Gets.Ru (fonts.gets.ru). Несколько тысяч шрифтов удобно разбиты по категориям: «3d-шрифты», «Компьютерные», «Декоративные», «Плакатные», «Символьные» и др. Есть шрифты русских разработчиков, есть и англоязычных.
«Шрифты на Woweb» (font.woweb.ru) – еще один ресурс по этой теме. Многие шрифты, конечно, вы уже могли найти на Fonts.Gets.Ru, но достаточно и тех, которые добавлены специально для Font.Woweb.Ru. Именно тут можно найти оригинальные шрифты, подходящие для создания логотипа или другой графической работы.
//-- Немного о грустном --// Преимущества AJAX очевидны – сэкономленное время и трафик, ожившие интерфейсы, счастливые пользователи. Но столь же очевидны и недостатки.
AJAX не может похвастать универсальностью. Используя этот подход, программистам приходится изворачиваться, чтобы порадовать поклонников различных браузеров. Конечно, эти технологии поддерживаются всеми заслуживающими внимания программами – Mozilla Firefox, Microsoft Internet Explorer, Opera, Konqueror и Apple Safari. Однако отдельные компоненты могут вести себя непредсказуемо в браузерах различных производителей. Как всегда, именно «мелкая несовместимость» способна омрачить радость приобщения к «новому вебу», поэтому приложения приходится дотошно тестировать. К счастью, разработчики объединили усилия, и теперь в Сети можно найти библиотеки, решающие проблемы с совместимостью.
Самое досадное ограничение – JavaScript в браузере обязательно должен быть включенным. А контроль за этим целиком и полностью находится в руках пользователя. Особо мнительные субъекты, «продвинутые» в вопросах безопасности, имеют привычку отключать все «лишние» возможности. И такой «спартанский» браузер, разумеется, не сможет порадовать своего владельца чудесами «нового веба». С другой стороны, один из горячих поклонников AJAX привел весьма остроумный контраргумент: «Вы никогда не увидите картинок, если отключите их в своем браузере… Ваш компьютер перестанет работать, если вы выдернете вилку из розетки… На свете и так слишком много вещей, которые можно отключить».
Подобные утверждения не убеждают противников «нового веба». Ведь есть же последняя и самая страшная заповедь, которую нарушает этот подход, – юзабилити.
В AJAX-приложениях не работает знакомая каждому кнопка «Back». С точки зрения программиста, такой саботаж вполне объясним: браузер хранит историю перемещения пользователя по страницам, а в AJAX контроль отдается в руки приложения, где нет понятия отдельных страниц, – и «цепь времен» разорвана. Пользователь же убежден, что любимая кнопка должна работать всегда и везде. Приходится выдумывать дополнительные трюки, которые имитируют правильную работу злосчастной кнопки в AJAX.
Но этим дело вовсе не ограничивается. Эксперты по юзабилити неожиданно вспомнили, что хваленый подход будет работать лишь в графических браузерах, а пользователи того же Lynx останутся «с носом». Что на это можно возразить? Лишь еще раз вспомнить о том, что идеал, увы, недостижим, и продолжить создавать веб-приложения с шустрым интерфейсом.
//-- Дефицит идей и избыток технологий --// Похоже, что хитренький автор из Adaptive Path, чья статья была многократно растиражирована в Сети, оказался не так уж неправ. Конечно, наивно называть «новым вебом» подход, технологическую начинку для которого придумали в незапамятные времена. Да, технологии известны давно, и их комбинация, отдаленно напоминающая AJAX, была впервые использована Microsoft аж семь лет назад.
Как ни странно, призрак AJAX довольно давно тревожит умы и отечественных программистов. В России этот подход, пожалуй, даже нашел новые сферы применения. Например, родственная комбинация технологий под названием LCD (Live Client Documents)[Разрабатывается компанией BYTE-force с 2000 года] легла в основу системы управления контентом. Здесь отсутствуют асинхронные запросы к серверу, то есть «чудеса» можно наблюдать, даже отключившись от Интернета, связь потребуется лишь для сохранения изменений. Однако об удобных приложениях с быстрыми интерфейсами, оперативно реагирующими на каждый «чих» пользователя, заговорили лишь в этом году. Бесспорно, немалую роль в этом сыграл Google: разработчики подхватили старую идею и придумали ей новое применение.
Случай с AJAX, по-моему, еще раз подтверждает старую истину: главное – идея, а способы ее удачного (и не очень) воплощения обязательно найдутся. Наверняка они уже существуют. Обсуждая плюсы и минусы «нового веба», стоит помнить, что, возможно, мы просто плохо представляем себе весь идеологический потенциал этого подхода. Известно – удобные интерфейсы и революционные приложения создаются людьми, а не технологиями.
Ажиотаж вокруг «нового веба» великолепно иллюстрирует и другую, немного грустную закономерность. Пока не найдется талантливый популяризатор, или, если угодно, «пиарщик», самой гениальной технологии уготовано место на задворках компьютерного мира. AJAX повезло, и будем надеяться, что и для других хороших идей будут находится не менее хорошие популяризаторы.
Понятие «дизайн страниц» давно переросло в более правильное понятие «дизайн пользовательского интерфейса». Как обычно, можно выделить крайности:
Отрицание понятия «юзабилити» как такового, эта точка зрения уже давно существует и процветает. Чисто «графических» сайтов можно найти немало. Вот пример www.chipotle.com – чтобы найти нужный раздел, вам нужно пройтись мышкой по всем микроскопическим лепесткам, уворачиваясь от глупо снующего по экрану дирижабля…
//-- *** --// Отказ от граф-дизайна в принципе (или сведение его к минимуму) тоже находит множество сторонников. Ярым их представителем является автор множества работ по проблемам пользовательских интерфейсов – Якоб Нильсен. В его статьях и книгах множество интересных и действительно полезных наблюдений. Но взгляните на его собственный сайт