На днях узнал, что существует специальное слово для обозначения гибрида блога с книгой – blook (= blog + book). Слово это и в англоязычном мире мало кому известно, русского перевода тем более не существует. Можем прямо сейчас его и придумать. Предлагаю – блук.
Блуков в Интернете пока считаные единицы; точнее – единицы проектов, так себя называющих, а сам жанр не новый. Автор регулярно выкладывает новые главы своей книги в собственный блог, рядом их можно комментировать, придумывать варианты, обсуждать с автором, давать советы и т. д. За последние годы было несколько хорошо пропиаренных проектов, о которых «КТ» сообщала: Кинг (Stephen King), Доктороу (Cori Doctorow), у нас – Лукьяненко. Сегодня предлагаю ознакомиться с только что стартовавшим блуком Тома Эвслина (Tom Evslin).
Автор, в прошлом, по собственной характеристике, «серийный CEO», может считаться акулой ИТ-бизнеса. В Кремниевой Долине и аналогичных ареалах обитания суперкрутых айтишников Эвслин больше всего известен своим эпохальным решением о введении фиксированных (flat-rate) тарифов на Интернет (он возглавлял тогда подразделение интернет-сервисов в AТ&T). Эвслин принял самое активное участие в интернет-буме 1999—2001 гг., и именно этому периоду посвящена его «сериализованная книга».
Называется сочинение "hackoff.com: загадочная история с убийством на фоне подъема и крушения интернет-пузыря". Детективный сюжет стандартен: обнаружен труп CEO успешного доткома под названием hackoff, начинается расследование, а на его фоне дается ретроспектива ключевых эпизодов из жизни компании. Книга не заслуживала бы большого внимания, если б не одна особенность, которая имеет прямое отношение и к теме сегодняшнего номера – перспективным направлениям инвестиций в ИТ-бизнес. Блук Эвслина – не просто «загадочная история». Это классический производственный роман в американском варианте (основанном Артуром Хейли с его «Аэропортом» и «Отелем»). В данном случае – во всех деталях описывающий работу высшего менеджмента ИТ-компании в критический момент ее развития.
Интернет-пузырь только раздувается, создатели и инвесторы принимают решение – надо срочно проводить IPO (то есть делать компанию публичной) в расчете на резкий рост стоимости акций. Каждый шаг описан с дьявольской подробностью. Объяснено в деталях всё, что нужно сделать, названы все люди, с которыми надо поговорить, – инвесторы, банкиры и т. п. Перечислены главные документы, которые надо заполнить, ключевые цифры, которые следует в них указать. Отдельно разъясняется профессиональный жаргон. Просто учебник по венчурному бизнесу, отчасти даже вдохновляющий. Например, когда герои то и дело говорят друг другу: это, брат (чаще – сестра), тебе не Гарвардская бизнес-школа, это жизнь, здесь все по-другому.
Восторженный читатель даже может принять всё за чистую монету: мол, без гарвардов-то оно и способней. Не уверен, господа, не уверен. Без гарвардов, боюсь, в этот круг вряд ли проникнешь. Главный герой, кстати, хоть и отсидел в тюрьме за мелкое хакерство, но тоже – только после Гарварда.
Кстати, созвучие с распространенным ругательством, зашитое в самом названии фирмы hackoff, от меня, признаюсь, ускользнуло – я о нем догадался, только когда детектив, опрашивающий свидетелей, был несколько шокирован. В тексте вообще довольно много циничного юмора, но цинизм этот высокого качества. А о бизнесе без цинизма могут говорить только… ну, наверное, министры нашего правительства в заявлениях для печати. В общем, рекомендую прочитать.
А заодно призываю обратить внимание, как популярен становится обычный самиздат в его интернет-варианте – или в виде гибрида онлайна с бумагой. «Самопубликуйся или умри!» – так назвал свое эссе Эвслин, перефразируя первое правило выживания в американском университете (Publish or perish). Умри, Том, – лучше не скажешь.
НОВОСТИ: Новости
//-- Microsoft платит. Всегда --//
Microsoft уладила еще один антимонопольный конфликт, тянувшийся с конца 1990-х годов. За поруганную посредством Windows Media Player честь софтверный гигант выплатил RealNetworks 761 млн. долларов. Взамен последняя отказалась от всех претензий и поддержки коллективных антимонопольных исков в Европе и Южной Корее.
Напомним суть дела: Microsoft добавила в свои ОС семейства Windows бесплатный Media Player и настоятельно порекомендовала партнерам и, в частности, сборщикам компьютеров воздержаться от контрактов с RealNetworks, которая искала возможность предустановки Real Player на новые ПК. В результате продажи плейера и прибыли компании стремительно упали, и в декабре 2003-го RealNetworks вчинила обидчику иск на миллиард долларов.
По словам Билла Гейтса, нынешнее соглашение выходит за рамки простой выплаты отступных. Вчерашние враги станут друзьями, займутся продвижением партнерских технологий и объединят усилия на рынке онлайновой торговли музыкой. На пресс-конференции Гейтс и глава Real Роб Глэйзер (Rob Glaser) продемонстрировали, как музыкальные сервисы Rhapsody будут интегрированы с MSN Search и MSN Messenger – это поможет партнерам противостоять Apple с ее iTunes Music Store. Вряд ли обрадуется и Google, ведь недавно с RealNetworks был подписан договор о включении в поставку Real Player программы Google Toolbar. Теперь же, судя по всему, предпочтительным поисковиком для RealNetworks станет MSN.
Наличными умиротворенный истец получит 460 млн. долларов. Большая часть этих средств, по словам представителя RealNetworks Боба Кимболла (Bob Kimball), будет потрачена на приобретение интеллектуальной собственности и небольших, но перспективных фирм. Еще 301 млн. пойдет на раскручивание сервисов Rhapsody в сети MSN. Также RealNetworks получит возможность бесплатно использовать технологии Windows Media для расширения функциональности Real Player.
Как видим, гордое звание монополиста обходится Microsoft недешево. В 2003 году корпорация выплатила AOL за глумление над Netscape 750 млн. долларов. В минувшем году Sun Microsystems получила 2 миллиарда за унижения Java, а Novell – 536 миллионов за закат NetWare. В июле этого года IBM слупила с софтверного гиганта 775 млн. долларов за ценовую дискриминацию и загубленную OS/2, теперь вот настал черед Real (причем очередь обиженных еще не кончилась). Кстати, в результате соглашения с Microsoft фирма получила не просто наличные, но и прекрасные перспективы развития. Рынок отреагировал мгновенно – цена акций компании подскочила более чем на треть. – Т.Б.
//-- IM-пульсивные друзья --// Microsoft и Yahoo! собираются дружить семьями. На сей раз на почве интернет-пейджинга: IM-сети MSN и Yahoo! должны объединиться будущей весной. Пользователи MSN Messenger смогут обмениваться с обитателями сети Yahoo! сообщениями, файлами, искать собеседников, не устанавливая клиента и не заводя дополнительную учетную запись в Yahoo! Messenger, и наоборот. Появится и возможность голосового общения по VoIP. Пока неизвестно, будет ли выпущена «объединенная» версия IM-клиента, или партнеры продолжат разрабатывать собственный софт, совместимый друг с другом. По слухам, более вероятен второй вариант.
Главная цель нового альянса – укрепление позиций в конкурентной борьбе с продуктами компании America Online – AIM и ICQ (занимающими около 56% IM-рынка) и, конечно, нового перспективного игрока – Google Talk. Сейчас все публичные IM-сервисы являются бесплатными и живут за счет рекламы. Очевидно, что единая укрупненная IM-сеть MSN/Yahoo! с весьма приличной аудиторией станет более привлекательной площадкой для рекламодателей.
Впрочем, не стоит забывать и о существовании альтернативных IM-клиентов, умеющих подключаться к любым IM-сервисами. Та же Miranda поддерживает ICQ, AIM, MSN, Jabber, Yahoo!, Gadu-Gadu, Tlen, Netsend и другие IM-сети. Поэтому для простого пользователя объединение Yahoo! и MSN вряд ли станет чем-то революционным. Скорее, речь идет о большем удобстве. И на том спасибо. – Т.Б.
//-- С новым айПодом! --// Похоже, любимым развлечением многочисленной армии поклонников компании Apple все чаще становится игра в угадайку. Уже стало традицией, что незадолго до явления миру «новой большой вещи» отцы Apple подогревают публичный интерес к будущей новинке, распуская в прессе слушок о назревающей сенсации и до самого «момента X» выдерживая многозначительную паузу. Очередной всплеск активности прогнозистов-любителей пришелся на 12 октября – на этот день в Сан-Хосе была назначена пресс-конференция для избранной публики, транслировавшаяся в режиме телемоста в Лондон. Театральность происходящего усугублялась приглашениями, отосланными по электронной почте участникам: атачментом к письму стало изображение задернутого багрового занавеса, поверх которого красовалась завораживающая надпись «One More Thing».
Впрочем, на сей раз интриги не получилось: после недавней презентации iPod Nano и iTunes-совместимого мобильника ROKR (см. «КТ» #605) возможностей для маневра у «яблочников» оставалось не так уж много. И пресса, и эксперты сходились во мнении, что гвоздем нынешней программы станет видеоплейер. Так и вышло. «iPod был успехом, но настало время заменить его», – громогласно объявил Джобс, представив публике долгожданный видео-iPod. Новинка, похожая на своих собратьев по семейству, оснащена 2,5-дюймовым дисплеем с разрешением 320х240. Она будет поставляться с 30– или 60-гигабайтным винчестером (в зависимости от модификации цена составит 300 или 400 долларов), а также в двух цветовых вариантах – черном и белом. Несмотря на возросшую емкость жесткого диска, новый iPod тоньше своего стандартного 20-гигабайтного собрата. Заряда батарей должно хватать на 2—3 часа проигрывания видео или 14—20 часов музыки. Для поддержки видеовозможностей плейера выпущена и новая, шестая версия iTunes (интересно, что она появилась всего через месяц после пятой).
Запастись записями для карманного «видака» (поддерживаются форматы MPEG-4 и H.264 video) можно в магазинчике iTunes, в чьем ассортименте уже имеется больше двух тысяч музыкальных видеопрограмм. Впрочем, клипами дело отнюдь не ограничится: согласно договору, заключенному Apple с Walt Disney, в скором будущем счастливые «видеоайподовладельцы» смогут наслаждаться на крошечных дисплеях эпизодами любимых телесериалов каналов ABC и Disney Television. Одними из первых ласточек нового вещания станут всемирно известные «Отчаянные домохозяйки», которые планируется продавать по два доллара за серию (в Сеть файлы будут попадать на следующий день после телетрансляций).
Видео-iPod стал своеобразным подарком к новому финансовому году: за сутки до его презентации эппловцы подбили бабки за прошедшие двенадцать месяцев. «Все мы очень волнуемся, завершая самый успешный год в истории компании», – признался Стив Джобс. Что ж, гордиться Apple и вправду есть чем: ее доходы за год достигли 13,93 млрд. «зеленых», а чистая прибыль составила 1,33 млрд. (по сравнению с 2004 годом рост соответственно на 68% и 384%!). По словам Джобса, «коньком» его подчиненных стала ставка на креативность и инновационные продукты.
Впрочем, почивать на лаврах Apple не приходится: как предсказывают эксперты Уолл-стрита, всемирная «айподомания» медленно, но верно идет на спад. И хотя продажи iPod в прошлом квартале утроились по сравнению с аналогичным периодом прошлого года, достигнув отметки 6,5 миллиона, предсказанная аналитиками цифра (8,5 миллиона) осталась несбыточной мечтой. Немалой головной боли для Apple стоила и скандальная история с чересчур ломкими экранами iPod Nano. Так что не исключено, что дальнейшая судьба «яблочников» во многом зависит от «новой большой вещицы», появившейся из-за багрового занавеса. – Д.К.
//-- Да ну его в болото! --//
Компания Palm – вчерашняя PalmOne, вернувшаяся к оригинальному короткому имени, объявила о планах еще одного ребрэндинга: теперь решено отказаться от марок Zire и Tungsten. Имена новых наладонников будут состоять из двух частей – слова «Palm» и цифро-буквенного кода, обозначающего модель (хотя LifeDrive и Treo останутся как есть). Это, по мнению менеджера Palm Раджа Доши (Raj Doshi), позволит добиться лучшей узнаваемости брэнда и не будет вводить потребителя в заблуждение – ранее многие покупатели принимали названия Zire и Tungsten за имена производителей, а не названия моделей.
Первыми двумя наладонниками, поименованными по новой схеме, станут Palm TX и Palm Z22 – они уже поступили в продажу в Штатах по цене 300 и 100 долларов соответственно. Несмотря на разницу в цене, оба устройства позиционируются как модели начального уровня и ориентированы на людей, покупающих свой первый PDA. Palm TX, работающий на Intel XScale (312 МГц), стал третьим, после Tungsten C и LifeDrive, устройством Palm, получившим средства беспроводной связи Wi-Fi (есть также Bluetooth). Экран имеет стандартное разрешение 320x480, встроенной флэш-памяти – 128 Мбайт (сотня доступна пользователю).
Palm Z22, в свою очередь, является заменой бюджетного Zire 21. Сохранив небольшие размеры, наладонник обзавелся более мощным процессором от Intel и цветным экраном. Работает Z22 под управлением новой Palm OS 5.4.9 (Garnet) – на Z21 стояла 5.2.8.
Недавнее решение о начале использования Windows Mobile не затронет семейств Palm T и Palm Z. По крайней мере, по словам Доши, «в обозримом будущем». Более того, Palm заявила о продлении сотрудничества с PalmSource (переходящей под крыло японской Access) до 2010 года, так что хоронить Palm OS и наладонники под ее началом вроде бы рано. Palm пока в раздумьях, использовать ли новые поколения «родной» операционной системы, которые будут построены на ядре Linux (как обещает разработчик), или же остановиться на текущем. – Т.Б.
//-- Матрица: отзыв --//
Сразу четыре крупнейших производителя цифровой техники – Canon, Fuji, Konica Minolta и Sony – признали наличие проблем с несколькими десятками моделей своих цифровых фото– и видеокамер на базе CCD-матриц, выпущенных в период с октября 2002 по март 2004 года. Неприятности связаны с корпусами матриц производства Sony. Из-за некачественного герметика внутрь микросхем может проникать влага, что приводит к их выходу из строя (особенно при повышенных температуре и влажности). Симптомы следующие: смазанное, искаженное изображение (см. фото) или его полное отсутствие.
У Sony в программу отзыва попали два десятка моделей фотокамер (в том числе DSC-F717 и DSC-V1), шестидесят цифровых видеокамер, несколько профессиональных камкордеров и два наладонника Clie. У остальных производителей список проблемных аппаратов поменьше. Хотя гарантия на большинство камер уже не действует, фирмы обещают устранить неисправность бесплатно. – Т.Б.
//-- Капитуляция ослов --// Ослиное упрямство оказалось мифом: компания MetaMachine, основатель пиринговой сети eDonkey (пожалуй, крупнейшего на данный момент файлообменника в мире), получив письмо с юридическими претензиями от RIAA (см. «КТ» #608), долго упираться не стала и заявила о капитуляции. На слушаниях в Конгрессе США президент MetaMachine Сэм Яган (Sam Yagan) сказал, что компания прекращает поддержку eDonkey, поскольку судебные издержки подкосят бизнес MetaMachine даже в том случае, если дело будет выиграно. Так что альтернатив не осталось: пришлось сдаваться на милость победителя.
Компания готова пойти на все условия, которые выдвинет RIAA, и надеется, что акулы музыкального бизнеса оценят столь лояльный шаг. Если переговоры пройдут гладко и закончатся мировым соглашением, MetaMachine намерена заняться легальным музыкальным бизнесом. Предположительно это будет некая закрытая P2P-сеть с платным контентом. Яган надеется, что часть поклонников eDonkey станет пользователями новой системы, но пока угроза судебного разбирательства все еще нависает над компанией, какие-либо подробности проекта раскрывать рано.
Президент MetaMachine не удержался от критических и полных горечи слов в адрес Верховного суда США, вынесшего памятное решение о Groskter (с которого все и началось). Он заметил, что теперь все инновации в области файлообменников будут приходить из-за рубежа, а в Америке на подобных разработках можно смело ставить крест. И даже легальные P2P-сети, по мнению Ягана, поостерегутся открывать бизнес в Штатах. С пиринговыми же операторами, которые базируются где-нибудь в Азии, и договориться о совместном ведении дел не удастся, и в суд их в случае чего не потащишь.
Уход MetaMachine, конечно, отразится на сети eDonkey, но не выведет ее из игры. Помимо «официального» клиента eDonkey2000, остается множество альтернативных (eMule, MLDonkey, Shareaza, Jubster), система координирующих серверов тоже должна остаться работоспособной. – А.Ш.
//-- HBO спасает Рим --// Телевизионная компания HBO, выпустившая такие культовые сериалы, как «Клан Сопрано» и «Секс в большом городе», начала активно защищать свою интеллектуальную собственность. С подачи фирмы MediaSentry.com, специализирующейся на защите копирайта в Интернете, HBO арендовала у нескольких американских провайдеров серверы с толстыми каналами связи и принялась распространять в файлообменной сети BitTorrent… первый сезон своего пользующегося бешеной популярностью телесериала «Рим».
Не сошло ли руководство телекомпании с ума? Ведь именно Интернет оттягивает аудиторию – вместо того чтобы по вечерам в выходные дни ждать сериала перед телевизором и поглощать определенный объем дорогого рекламного времени, ушлые юзеры все больше предпочитают скачивать отдельные серии (а то и сразу весь сезон) и смотреть их когда заблагорассудится, без надоедливой рекламы.
Конечно, на самом деле HBO начала распространять не сам сериал, а файлы, содержащие случайный набор данных. Компания выпустила в Сеть так много точек распространения «подделок», что скачать «Рим» через BitTorrent стало практически невозможно. Не помогают даже программы вроде Peer Guardian, ранее легко решавшие аналогичные проблемы (поскольку внесенные в «черный список» точки тут же меняют IP). Для отлавливания огромного числа «агентов» HBO нужно программное обеспечение принципиально нового уровня и быстродействия. Пока неясно, как долго продлится эксперимент, однако очевидно, что в случае успеха такая практика будет поставлена на широкую ногу.
Съемки второго сезона «Рима» начнутся в марте следующего года, а на телеэкраны США сериал из двенадцати эпизодов выйдет в начале 2007-го. Останутся ли к тому времени нормально работающие файлообменники? – Т.Б.
//-- Одной глупостью меньше? - --//
То, что абсолютно надуманное региональное кодирование в DVD было и остается блажью Голливуда, известно всем. Код географического региона осложняет жизнь потребителям, усложняет производство/продажу дисков и плейеров, и лишь придумавшая его «фабрика грез», похоже, полагает, что с помощью этой ерунды может регулировать рынок и увеличивать свои прибыли.
Подобные суждения о политике киноиндустрии слышны давно, однако ситуация за все прошедшие годы так и не изменилась, судя по тому, что всерегионный код 0 можно найти, как правило, только на пиратской продукции. Но теперь на смену DVD идут новые форматы оптодисков, и вместе с ними появилась надежда, что код региона все-таки вымрет, как динозавры.
На прошедшей в Японии конференции DVD Forum Japan 2005 главной темой было завершение стандартизации формата HD DVD, который должен выйти на массовый рынок в 2006 году. Одно из самых любопытных заявлений сделал Хисаси Ямада (Hisashi Yamada), представитель руководства компании Toshiba, возглавляющей лагерь сторонников HD DVD в битве с конкурирующим форматом Blu-ray. Цитата: «У нас имеются разные мнения относительно региональных кодов. Они чрезвычайно непопулярны даже в руководящем комитете [DVD-Форума], поэтому мы решили их не продвигать. HD DVD, вероятно, не будет содержать никаких средств контроля географического региона». В дипломатичной, но совершенно недвусмысленной формулировке осталось, как видим, слово «вероятно», поскольку реакция Голливуда на подобную идею вполне предсказуема. Однако неизбежность острейшей борьбы HD DVD с Blu-Ray за благосклонность потребителей, похоже, добавляет решимости электронным промышленникам в спорах с киномагнатами. – Б.К.
//-- Соломоново решение по-австралийски --// В Австралии наконец завершилось длившееся четыре года судебное разбирательство по поводу законности технологии регионального кодирования в игровых приставках Sony Computer Entertainment (см. «КТ» #437). Напомним, что австралийский бизнесмен Эдди Стивенс (Eddy Stevens), торговавший импортными играми и MOD-чипами для PlayStation, требовал признать использование регионального кодирования незаконным и наносящим вред потребителям. Ответчик – Sony, в свою очередь, добивался запрещения производства и использования MOD-чипов, которые эту самую региональную защиту позволяют обходить.
Местный орган защиты прав потребителей (ACCC) упирал на то, что любой австралиец, заплативший за легальную копию игры в другой стране или купивший «импорт» у себя на родине, имеет право пользоваться продуктом, а значит, любые технические средства, препятствующие этому, незаконны. Таким образом, MOD-чипы лишь помогают потребителю реализовать его законное право. SCE Australia, однако, настаивала, что региональное кодирование для потребителя есть великое благо, ведь тот сможет получить техническую поддержку, принять участие в маркетинговых программах и т. п.
После долгих дебатов, в июле 2003 года Федеральный суд Австралии признал региональное кодирование «технологией, защищающей авторские права», а MOD-чип – устройством, их нарушающим. Решение обосновали тем, что MOD-чипы позволяют запускать не только легальный «импорт», но и пиратский софт. Разумеется, последовала апелляция, и ныне Верховный суд страны отменил приговор нижестоящей инстанции. По мнению судей, MOD-чипы не используются непосредственно для создания нелегальных копий игр, а помощь в запуске пиратских дисков (и легальных «бэкап-копий») не есть нарушение копирайта. Поэтому отныне на Зеленом континенте MOD-чипы можно использовать без ограничений. Тем не менее до запрета регионального кодирования (чего добивался Стивенс) дело не дошло. Ну да еще не вечер… – Т.Б.
//-- Умом защиту не понять --// Лоббирующие структуры индустрии звукозаписи и кино одержали (по крайней мере, на бумаге) очередную внушительную победу в Европе. Финский парламент подавляющим большинством голосов (121 против 34) принял воистину драконовский закон о копировании, в некоторых своих положениях заткнувший за пояс даже печально известный американский DMCA, «закон о копирайте в цифровом тысячелетии».
Вплоть до последнего времени в Финляндии действовали достаточно либеральные порядки, допускающие копирование контента для некоммерческого использования, а в целях компенсации возможных потерь владельцам авторских прав чистые носители информации облагались специальным налогом. Теперь же преступлением становится не только самовольное копирование защищенного контента, но и обладание, распространение или рекламирование инструментов, предназначенных для снятия защиты. Более того, вне закона поставлены даже «организованные дискуссии», где обсуждаются подобные вещи.
Закон принят несмотря на бурные дебаты в финском обществе, отмечавшие и крайне неудачные, расплывчатые формулировки документа, и откровенное игнорирование прав потребителей на купленный ими продукт. Правительство страны, вероятно, пытаясь предупредить более радикальные формы недовольства публики, добавило к новому закону специальное приложение с просьбой к производителям контента добровольно отказаться от преследования отдельных людей за изготовление нескольких копий в личных целях. Чем, естественно, довело ситуацию до абсурда – власть принимает закон с просьбой к протолкнувшим его структурам воздерживаться от применения полученных прав.
Характерно, что это далеко не единственный ныне пример искусственности многих правил DRM (управления цифровыми правами), изобретенных исключительно в угоду интересам алчной индустрии контента. В США уже целый ряд известных исполнителей – группы Dave Matthews Band, Foo Fighters, Switchfoot и др., – возмущенные тем, что фирмы звукозаписи выпустили их новые CD с антипиратской защитой, размещают на собственных сайтах подробные инструкции, где поясняют, как снимать защиту с дисков для изготовления MP3-копий. Более того, даже Sony BMG, видимо, утомившись от многочисленных нареканий покупателей, завела на своем сайте страничку, объясняющую, как преодолевать ее собственную защиту (ориентированную на Windows), чтобы загрузить сжатые аудиотреки в сверхпопулярные плейеры iPod (cp.sonybmg.com/xcp). У Sony BMG тут, конечно, имеется меркантильный интерес – перенаправить гнев покупателей на несговорчивую Apple, упорно отказывающую всем в лицензии на свою технологию DRM-упаковки FairPlay. Однако о чудной, мягко говоря, ситуации вокруг DRM выразительно говорит уже сам факт: продавец объясняет покупателям, как им обойти для них же установленные рогатки. – Б.К.
//-- SMS как угроза мобильной связи --// Опрос, проведенный Международным телекоммуникационным союзом (ITU) и компанией Intrado, показал, что в 2004 году на свои сотовые телефоны получали спам в виде текстовых SMS-посланий более 80% европейских пользователей. Хотя многие признали, что это были единичные случаи, 83% высказали мнение, что SMS-спам может стать для абонентов сотовой связи большой проблемой в течение ближайших двух лет. По этой причине многие операторы мобильной телефонии уже установили фильтры SMS-спама. Для тех же, кто с этим делом медлит, дополнительным стимулом должна стать работа, опубликованная учеными из Пенсильванского университета.
Исследования группы профессора Патрика Макдэниела (Patrick D. McDaniel) показали, что целенаправленная массовая рассылка SMS способна вызвать не только раздражение, но и забить телефонные каналы до полной потери работоспособности ячеек связи. А поскольку сети мобильной телефонии соединены с Интернетом, рассылка коротких текстовых сообщений с компьютера делает вполне возможной организацию DoS-атак.
Как известно, SMS-пакеты передаются не по голосовым линиям, а по служебному высокоприоритеному каналу, с помощью которого устанавливается телефонное соединение. С одной стороны, так удобнее, с другой – повышается уязвимость, поскольку управляющий канал, в отличие от голосового, обладает гораздо меньшей пропускной способностью и его легче забить потоком текстовых сообщений. Расчеты исследователей доказывают, что единственного компьютера, отправляющего 165 SMS в секунду, может быть достаточно, чтобы заблокировать мобильную сеть в столь крупном районе, как Манхэттен.
Нельзя сказать, что результаты анализа пенсильванских ученых прозвучали для компаний сотовой связи словно гром среди ясного неба. Угрозы такого типа предполагаются давно, и соответствующие средства для их предотвращения разработаны. Однако известно и то, что между разработкой и ее реализацией в уже действующей технике лежит немалая дистанция. И некоторые операторы, по их собственному признанию, не торопятся устанавливать фильтры, пока SMS-спам не стал напастью того же масштаба, что спам в электронной почте. – Б.К.
//-- Крестовый поход двух разгневанных женщин --// В США вышла новая разоблачительно-публицистическая книга с длинным названием «Шпионские чипы. Как ведущие корпорации и правительство планируют отслеживать каждый ваш шаг с помощью RFID» («Spychips: How Major Corporations and Government Plan to Track Your Every Move with RFID» by Katherine Albrecht and Liz McIntyre, 2005, Nelson Current). Авторы книги – гарвардская аспирантка Кэтрин Элбрехт и банковский ревизор Лиз Макинтайр – за последние годы получили известность благодаря возглавляемой ими общественной организации CASPIAN (www.spychips.com). Цель их сотрудничества – проинформировать общество о потенциальных угрозах широкого применения меток радиочастотной идентификации, поскольку государство и индустрия, внедряя RFID где только можно, предпочитают не акцентировать внимание на «шпионских аспектах» этой технологии.
В заявлениях для публики представители индустрии, разрабатывающей и использующей RFID, делают упор на бесспорные преимущества прогрессивных радиометок в таких областях, как контроль за производством, обеспечение бесперебойного снабжения и быстрая и надежная инвентаризация товаров. В книге же «Шпионские чипы» внимание читателей сконцентрировано на том, что компании с помощью RFID намерены изучать покупателей своих товаров, анализируя содержимое их холодильников, платяных шкафов, домашних аптечек, стеллажей в подвале и даже мусорных баков возле дома. Все эти планы вовсе не досужий вымысел авторов книги, а подборка фрагментов-цитат из внутренних документов компаний, из их патентов и из выступлений дирекции на корпоративных мероприятиях. Для всех, кто следит за дебатами вокруг RFID, в каждой из цитат нет никаких откровений – все это достаточно хорошо известные вещи. Однако в совокупности, собранные под обложкой одной книги, материалы действительно производят сильное впечатление, демонстрируя огромную разницу между декларациями и внутренними планами компаний.
Как и всякая публицистика, книга, несомненно, написана тенденциозно и отражает точку зрения лишь одной из противоборствующих сторон. Однако и другие аналогичные произведения, сильно повлиявшие на ситуацию в обществе, не назовешь беспристрастными. Например, эмоциональной публицистикой были «Безмолвная весна» Рэйчел Карсон (о загрязнении окружающей среды) и «Небезопасны при любой скорости» (о скрытых угрозах автомобилей). А нашумевшие «Джунгли» о мясохладобойной индустрии Чикаго – вообще художественный роман. Тем не менее (а скорее, благодаря этому) все эти книги вызвали мощнейший резонанс и в конечном счете привели к изменению в законодательстве США и ряда других стран.
Элбрехт и Макинтайр надеются, что и их работа раскроет многим людям глаза на потенциальные опасности RFID. В частности, потребители имеют право знать, что всякий проданный им товар, содержащий RFID, по умолчанию должен иметь деактивированную, то есть «убитую» радиометку. И что сохранять метку активной можно лишь по желанию самого покупателя. Пока, к сожалению, соответствующий закон ни в одной стране не только не принят, но даже не планируется. – Б.К.
//-- Полет нормальный --// Японское агентство аэрокосмических исследований JAXA объявило об успешном завершении первого тестового полета самолета-прототипа NEXST, разрабатываемого в качестве своего рода замены «Конкорду», то есть трансконтинентального авиалайнера нового поколения со скоростью, вдвое превышающей звуковую.
Испытания проходили на том же заброшенном ракетном полигоне «Вумера» в Австралии, где в 2002 году первый пробный пуск прототипа NEXST закончился катастрофой (самолет начал отделяться от ракеты-ускорителя раньше времени, потерял ориентацию и, не успев взлететь, рухнул на землю и взорвался). Три года «работы над ошибками» не пропали даром, и на сей раз испытания аэродинамических качеств изготовленной в масштабе 1:10 безмоторной копии самолета прошли как по маслу. Ракета вывела прототип на высоту 18 км, разогнав до нужной скорости, после чего 12-метровый стреловидный аппарат планировал самостоятельно и приземлился в заданном регионе на парашюте.
Если бы не катастрофа трехлетней давности, то уже к 2007 году должны были закончиться испытания прототипа со сдвоенным реактивным двигателем. Однако теперь все сроки пришлось сдвинуть. Как надеются японцы, прорыв в сверхзвуковой авиации позволит им занять лидирующие позиции в мировой аэрокосмической индустрии. Пока же авиапромышленность страны, хоть и производит высокотехнологичные компоненты для американского «Боинга», ограничена внутренним рынком.
Испытанный в Австралии аппарат создан корпорацией Mitsubishi Heavy Industries. Эксперимент, на который затрачено около 10 млн. долларов, стал важным этапом в разработке сверхзвукового лайнера, переносящего триста пассажиров, к примеру, из Токио в Лос-Анджелес всего за четыре часа. Кроме того, успешные испытания стали серьезным подспорьем для заключенного в июне соглашения о совместной трехлетней разработке Японией и Францией преемника для бесславно ушедшего на пенсию «Конкорда». На стадию регулярных коммерческих рейсов, полагают японские авиастроители, детище проекта NEXST выйдет примерно к 2025 году. – Б.К.
//-- Танцору гены не мешают --//
В начале лета семейство онлайновых биомедицинских журналов PLoS (The Public Library of Science), работающих под открытой лицензией Creative Commons Attribution License, пополнилось еще тремя изданиями. Одно из них – PLoS Genetics (www.plosgenetics.org) – радует читателей интересной и важной информацией. В сентябрьском выпуске, в частности, опубликована статья группы исследователей из Израиля и Франции, являющая собой новое слово в спортивной генетике.
Сообщается, что у людей, занимающихся бальными и спортивными танцами, преобладают определенные варианты (аллели) гена переносчика серотонина (SLC6A4) и гена 1а-рецептора аргинин-вазопрессина (AVPR1a). Серотонин, один из основных химических передатчиков нервных импульсов, известен своей ролью в возникновении эмоций. Аргинин-вазопрессин (антидиуретический гормон), помимо задержки воды в организме и сужения сосудов, оказывает влияние на мозговую деятельность. Упомянутые аллели, возможно, как-то усиливают выразительность движений и разжигают творческую искру у мастеров ритмической пластики. Кстати, проведенные параллельно психологические тесты показали, что у танцоров чаще встречаются особые, измененные состояния сознания и выше потребность в психологическом вознаграждении.
Попутно авторы статьи обсуждают роль танца в становлении Homo sapiens как вида и недавно обнаруженную связь между действием серотонина и духовно-религиозными переживаниями людей. – С.Б.
//-- Главное – вовремя прогнуться --// На очередной конференции по новым технологиям, прошедшей недавно в Кембридже, Массачусетская инновационная компания Nantero продемонстрировала экспериментальный образец кремниевой пластины диаметром 13 см, способной хранить десять гигабит информации с помощью структуры углеродных нанотрубок.
Над развитием технологии энергонезависимой NRAM-памяти Nantero активно работает несколько последних лет. Каждая запоминающая ячейка представляет собой мостик из углеродных нанотрубок длиной 130 нм, протянутый между двумя электродами над третьим на высоте 13 нм. В состоянии соответствующем логическому нулю нанотрубки не касаются третьего электрода и висят над ним за счет механического натяжения. Но если нанотрубки зарядить, то они провиснут, притянутся к третьему электроду и образуют с ним электрический контакт. В таком положении нанотрубки будут удерживаться сколь угодно долго за счет силы Ван-дер-Ваальса, даже если электростатического притяжения больше нет. Это состояние означает логическую единицу, которую легко считать, проверив, течет ли ток по нанотрубкам к третьему электроду. Заряд противоположной полярности вернет нанотрубки в состояние логического нуля.
Помимо значительно большей емкости (потенциально) и на порядок более высокой скорости переключения по сравнению с традиционной флэш-памятью, NRAM имеет еще целый ряд преимуществ. Например, она устойчива к действию радиации (что очень полезно в космосе) и практически не портится со временем.
В настоящее время Nantero активно сотрудничает с несколькими крупными производителями полупроводниковых устройств, которые намерены интегрировать процесс крепления нанотрубок в технологии производства обычных транзисторов. Этого достаточно для начала массового производства чипов NRAM, прототипы которых должны быть готовы к лету будущего года. – Г.А.
//-- Каждому биту остров --// Наноструктуру с рекордной плотностью магнитной записи удалось вырастить ученым из Федеральной политехнической школы Лозанны и Парижского университета.
Как известно, плотность записи информации на жесткий диск имеет теоретический предел, обусловленный магнитным взаимодействием соседних битов. Но как близко можно к нему подойди и как это сделать? От ответа на эти вопросы во многом зависят дальнейшие пути развития индустрии хранения данных.
Один из возможных способов увеличения плотности записи, похоже, нащупали европейские ученые. Их наноструктура состоит из самоорганизующейся решетки островков кобальта (состоящих в среднем из семидесяти атомов), выращенных на подложке из монокристалла золота. Плотность расположения островков – 26 триллионов на квадратный дюйм – в двести раз выше плотности записи современных винчестеров. Островки не взаимодействуют друг с другом магнитно, и поэтому каждый из них надежно хранит один бит.
К сожалению, информация на новой структуре может храниться лишь при очень низкой температуре – минус 223 градуса Цельсия, иначе температурные флуктуации намагниченности быстро ее разрушают. Поэтому кобальтовая нанорешетка пока больше интересна с научной точки зрения, выступая почти идеальной модельной системой для исследования предельных возможностей магнитной записи. Тем не менее ученые надеются вскоре преодолеть температурные ограничения, применив биметаллические островки размером 500—800 атомов. – Г.А.
//-- Мышка на хвосте принесла --// В прошлом веке говорили, что теоретик открыл новый физический эффект, состояние вещества или закон природы «на кончике пера». Именно так, исходя из уравнений релятивистской квантовой теории, Поль Дирак предсказал существование антивещества. Научный фольклор XXI века еще не сложился. Поэтому даже трудно сформулировать, каким образом делаются открытия сегодня – «на хвостике мыши» или «кликом клавиатуры»: нынешние теории так сложны, что без компьютера уже никуда. Впрочем, далеко не все ученые с этим согласны. Многие считают компьютерные расчеты не более чем экспериментом (только вычислительным), а устройство природы, по их мнению, может объяснить лишь теория. Как бы то ни было, а экспериментаторы делают открытия, пожалуй, даже чаще, чем теоретики; сегодня грань между ними размыта, и компьютерное моделирование, будучи скорее чем-то средним, успешно справляется с задачей познания.
Именно сложнейшие квантовые расчеты методом Монте-Карло позволили ученым из Норвежского университета науки и технологии в Тронхейме и Корнельского университета США предсказать существование принципиально нового состояния вещества сверхпроводящего и сверхтекучего металлического водорода.
Выдающиеся открытия прошлого века – сверхтекучесть и сверхпроводимость – являются редкими макропроявлениями квантовой природы микромира. Если сверхпроводников много и они давно используются в практических приложениях (например, в томографах), то сверхтекучесть наблюдается только в жидком гелии, который является диэлектриком. А чтобы лучше понять тонкости квантового поведения вещества, хорошо бы наблюдать сразу оба явления.
Согласно расчетам, сверхпроводящий и сверхтекучий водород может существовать при экстремально низких температурах и очень высоких давлениях – около четырех миллионов атмосфер. В природе такие условия, возможно, реализуются в недрах планет-гигантов, в лабораториях же необходимое давление пока получать не умеют. Но три миллиона атмосфер уже достижимы, и ученые надеются в ближайшие годы преодолеть заветный рубеж с помощью мощных прессов и новых алмазных наковален.
Поведение водорода в этих экстремальных условиях определяется сложным взаимодействием квантовых вихрей из электронов и протонов (см. рисунок). Его состояние принципиально отличается от всех известных состояний вещества. При разных температурах и давлениях и под воздействием внешнего магнитного поля поведение водорода может быть различным. Он может быть только сверхтекучим, или только сверхпроводящим, или тем и другим одновременно. Возможно, водород замерзнет и станет твердым как лед. Пока до конца не ясно, что же будет происходить на самом деле, и дальнейшие вычислительные и реальные эксперименты станут хорошей проверкой справедливости современных физических представлений. – Г.А.
//-- Вот бы чайку… --// Не каждый может позвонить домой и сказать: «Дорогая (дорогой), я буду через пять минут, завари, пожалуйста, чаю». В Британии проблему для «одиноких и прямо с холодной улицы» решили до гениального просто. Никаких таймеров. Нужно лишь заранее налить воды и, подходя к дому, послать чайнику… SMS с любым текстом, например «вкл». К моменту, когда вы откроете дверь, кипяток будет готов.
Правда, чайник тут нужен специальный. Именно такой чае-гаджет под названием ReadyWhenUR совместно анонсировали чайная компания PG Tips, празднующая свое 75-летие, и Orange – крупнейший в Англии оператор мобильной связи.
Идею создания чайника подсказал Уоллес – герой комиксов, а этой осенью еще и второй полнометражной мультипликационной картины про Уоллеса и Громмита. Инженер-изобретатель Уоллес всегда отличался ленью (которая, как известно, главный двигатель прогресса), он даже чай подогревает, не вставая с дивана.
ReadyWhenUR появится на прилавках в январе 2005 года. Правда, обойдется забота о себе любимом почти в две сотни долларов. – Т.Б.
Микрофишки
Заработало полупроводниковое производство AMD Fab 36 в Дрездене. Это первая фабрика компании, использующая прогрессивную технологию с 300-миллиметровыми пластинами. К 2008—09 гг. предприятие должно выпускать около 100 млн. процессоров в год. – Н.Я.
//-- *** --// В середине октября Microsoft запатчила четырнадцать уязвимостей в Windows: несколько апдейтов получили статус критических. Большинство багов касается Windows XP, 2000 и Server 2003. – Т.Б.
//-- *** --// Аmerica Online решила отказаться от своего полного имени и использовать исключительно аббревиатуру AOL. Такой шаг позволит ей выйти на рынки стран (в частности, Китая), где слово «America» в названии вряд ли положительно скажется на притоке клиентов. – Т.Б.
//-- *** --// Манчестерская Teleport UK Limited выставила на продажу «золотой» домен SMS.co.uk. Заинтересованные в его покупке представят свои предложения 4 ноября на закрытом аукционе. Стартовая цена – 100 тысяч фунтов стерлингов. Ранее в этом году домены Website.com и Property.com сменили владельцев за 750 тысяч долларов, а Porker.com ушел всего за 155 тысяч. – Т.Б.
//-- *** --// Windows Vista Beta 2 Build 5219 должна была быть представлена широкой публике в ноябре, но «по традиции» утекла в Интернет. – Т.Б.
//-- *** --// Google в конце концов поддалась уговорам тайваньских властей: теперь пользователи популярного сервиса Google Maps, разглядывая карту острова, вместо надписи «Тайвань, провинция Китая» видят нейтральное «Тайвань». Однако представители компании утверждают, что это лишь отражение «работы по совершенствованию пользовательского интерфейса – предыдущее название было слишком длинным». – К.К.
//-- *** --// Universal Pictures и 20th Century Fox привлекли к экранизации видеоигры Halo одного из самых ярких режиссеров современности Питера Джексона. Сниматься Halo будет в Новой Зеландии и появится в прокате к середине 2007 года. – Т.Б.
//-- *** --// Компания Segway, создатель одноименного самоката, начала продажу лицензий на использование своих фирменных технологий. Подобный шаг, вероятно, ставший следствием низкого спроса на продукцию Segway, в которой потребитель увидел лишь дорогую забаву, а отнюдь не революционное средство передвижения, можно расценить как полное крушение амбициозных планов тотальной оккупации рынка личного транспорта. – А.З.
//-- *** --// Библейское общество Австралии «перевело» Библию на язык SMS. Текст остался прежним, изменилось лишь написание слов: «In da Bginnin God cre8d da heavens & da earth». Служители культа верят, что новая редакция позволит приобщить к святому писанию молодое поколение. Ой ли? – Т.Б.
//-- *** --// Домен BBC.com был куплен Британской вещательной корпорацией у компании Boston Business Computing в далеком 1999 году. Все бы ничего, но «золотой» адрес (как недавно выяснилось, за него уплатили 375 тысяч долларов) вот уже шесть лет работает в качестве редиректора на BBC.co.uk. Ныне корпорация, наконец, собралась найти потраченным деньгам правильное применение – превратив BBC.com в международный портал. – Т.Б.
//-- *** --// Сторонние производители потихоньку начинают выпускать моды, расширяющие возможности портативной игровой приставки PSP. Например, компания Datel, действующая на рынке консольных аксессуаров, предлагает микродрайв, совмещенный с емкой батареей. 4 гигабайта дискового пространства обещают устранить проблему нехватки места для медиа-контента (и что лицемерить – для пиратских игр), а дополнительный источник питания позволит увеличить время игры вдвое. Цена окончательно не определена, но наверняка она будет ниже вороха флэшек сопоставимой емкости. – А.З.
//-- *** --// Eminem подал в суд на пять американских провайдеров мобильного контента: спор идет о незаконных продажах музыки рэппера в виде рингтонов. Eminem умеет отстаивать свою интеллектуальную собственность: в мае он заставил заплатить неназванную, но наверняка немаленькую даже гиганта Apple сумму – за то, что тот без разрешения использовал в своей рекламе фрагмент песни «Lose Yourself». – Т.Б.
13-я КОМНАТА: Осенний марафон
Можно лишь позавидовать тем счастливчикам, которые оказались 8 октября в калифорнийской пустыне Мохаве: на их глазах в историю робототехники была вписана новая страница.
Впервые автономному четырехколесному роботу удалось пересечь 210 километров по коварной местности, завоевав приз, учрежденный организаторами гонки из научно-исследовательского подразделения Пентагона DARPA. Благодаря щедрости могущественного спонсора на кону стояло два миллиона долларов – более высоким курсом обмена пройденных километров на «зеленые» могут похвастаться, пожалуй, лишь золотоносные трассы всемирно известной «Формулы-1».
Нынешняя гонка под гордым названием Grand Challenge стала уже второй по счету. Ее «миллионодолларовая» предшественница, проведенная здесь же весной прошлого года (см. «КТ» #535), завершилась конфузом: тогда до финиша не сумела добраться ни одна из самоходных повозок, а километровые столбы, пройденные лучшими из лучших, можно было пересчитать по пальцам. Редкий репортаж с того злосчастного ралли обошелся без ядовитых стрел в адрес организаторов и участников: многим казалось, что вожделенного приза конструкторам придется ждать десятилетиями. Однако прошло всего полтора года, и ехидные скептики были посрамлены.
Спартанские правила соревнований за это время не изменились, разве что дистанция пробега укоротилась на 30 км. Как и в прошлом году, роботизированным автомобилям предстояло за десять часов самостоятельно одолеть заранее неизвестный маршрут, полагаясь на показания своих электронных «органов чувств» – батареи сканеров и системы GPS. Наряду с полотном грунтовых дорог «железным коням» встречалось и бездорожье – их путь пролегал через песчаные участки и залитые водой низины. Нитью Ариадны служил выдаваемый перед стартом текстовый файл, хранящий географические координаты одиннадцати контрольных точек маршрута, максимально допустимое отклонение от соединяющей их прямой, а также лимит скорости на каждом из участков. Роль «гаишников в кустах» прилежно исполняли рассредоточенные по дистанции члены оргкомитета, вместо полосатых жезлов вооружившиеся контрольными радиопультами, приемники сигналов которых были вмонтированы в начинку каждой из машин. В компетенцию «судей на линии» входила дисквалификация попавших в аварию и нарушивших правила участников, а также борьба с «неспортивным поведением» – намеренным нанесением ущерба соперникам недобросовестными ботами.
Никаких ограничений на внешний вид «робоучастников» в кодексе турнира не значилось; впрочем, карт-бланш, выданный создателям роботов-пешеходов и пауков, те так и не использовали. В результате предстартовый парад участников походил на пестрое автошоу: наряду с обычными автомобилями здесь красовались гоночные модели, а также колесные трактора, комбайны и армейские джипы. Гулливером среди лилипутов выглядел тяжеловес TerraMax, сработанный на базе шестнадцатитонного грузовика Oshkosh, слегка напоминающего «БелАЗ».
До выстрела стартера фаворитами гонки считались машины команды робототехников университета Карнеги-Меллона (Питтсбург) под руководством опытнейшего конструктора Уильяма «Рэда» Уиттейкера (William «Red» Whittaker), в послужном списке которого – прошлогодний чемпион Sandstorm. Свое детище под кодовым названием Stanley на нынешнем состязании представлял и бывший воспитанник Уиттейкера – начальник лаборатории искусственного интеллекта Стэнфордского университета Себастьян Трун (Sebastian Thrun), чьим источником вдохновения стал паркетник Volkswagen Touareg. На старт отборочного тура вышли 43 бота; по результатам трековых заездов из них было отобрано 23 финалиста, которые и вступили в жаркую схватку на изматывающем пустынном маршруте.
Гонка превзошла все ожидания: прошлогодний рекорд в дюжину пройденных километров на сей раз не покорился лишь одному соискателю! Сразу пять умных авто честно пробежали весь марафон, при этом четырем из них удалось уложиться в суровый норматив. В споре учителя и ученика победила молодость: неформальный титул чемпиона мира в классе беспилотных «болидов» завоевал Stanley, показавшийся на финише через 6 часов 53 минуты (его средняя скорость на маршруте превысила 30 километров в час). Не исключено, что его результат мог быть еще более впечатляющим: но во избежание бортовых столкновений между лидером гонки и стартовавшим раньше него H1ghlander судьям пришлось несколько раз на минуту задерживать будущего чемпиона. По словам стэнфордцев, они испытали огромное облегчение, узнав, что их детище стоит среди дюн не из-за аварии, а как раз наоборот – из-за чрезмерной прыткости. Следующим к финишу пришел Sandstorm, уступивший лидеру всего одиннадцать минут. Примерно такой же временной интервал отделяет его от «однокашника» H1ghlander, замкнувшего тройку призеров. Еще через четверть часа заветную черту пересек бот Kat-5, а медленно, но верно продвигавшийся по маршруту гигант TerraMax добрался до цели лишь на следующие сутки.
Железных триумфаторов встретили ликующие зрители, в чьих рядах выделялись стэнфордцы и получившие мощную рекламу представители компании Volkswagen. Одним из самых рьяных болельщиков был сооснователь Google Ларри Пейдж, издавна питающий страсть к экстремальным видам спорта и пожертвовавший немало личных сбережений на предприятие Уиттейкера. Что ж, вложения надо отрабатывать: пока восторженная толпа качала Себастьяна Труна, несгибаемый Рэд не терял времени даром, уверяя корреспондентов, что его детище было и остается лучшим в мире: дескать, если бы не крошечный механический дефект, оно не пропустило бы вперед выскочку «Стэнли». И все же прав победитель, в своей «тронной речи» назвавший свой триумф общим для всех участников. Весьма вероятно, что благодаря нынешней гонке золотой дождь прольется на многих робототехников-любителей, которым светят заманчивые предложения от военных лабораторий. Порукой тому – наполеоновские планы Пентагона, согласно которым к 2015 году без человека за баранкой должно обходиться не менее трети всего автопарка американских вооруженных сил.
Хотя свои «ноу-хау» конструкторы держат в секрете, кое-какие рецепты успеха можно выведать и без промышленного шпионажа. Ясно, что кузнецами нынешних достижений стали не столько «железячники», сколько программисты, ваяющие софт для распознавания образов. Благодаря их усилиям «бегуны» не набили шишек, ставших фатальными для их предшественников. Как отозвался о триумфаторах Grand Challenge директор DARPA Тони Тезер (Tony Tether), «эти люди не просто ставят мировые рекорды, но и творят историю».
Увы, история самой гонки на этом завершена: по мнению организаторов, намеченная миссия выполнена «на все сто», так что практического смысла в аналогичных соревнованиях в дальнейшем уже не будет. Впрочем, скучать неутомимым «роботворцам», пожалуй, не придется: вполне возможно, что не за горами новые схватки под флагом DARPA. Учитывая успехи сегодняшних технологий, вряд ли кто-то возьмется предугадать, для кого выстрелит стартовый пистолет очередного ралли: для «умных» самолетов или космических кораблей.
//-- Парад победителей --// 1-е место Stanley
Результат: 6 час. 53 мин.
Команда: Стэнфордский университет
Спонсоры: Volkswagen of America, Mohr, Android, Red Bull, Intel
Нынешний триумфатор является новичком гонки DaRPa. В то время, когда боты-ветераны боролись за прошлогодний трофей, будущий чемпион еще представлял собой ничем не примечательный дизельный Volkswagen Touareg. То ли дело теперь, когда его электронные мозги состоят из семи процессоров Pentium M, на чьем попечении находится радар, лазерные дальномеры, инерционные сенсоры и стереовидеокамеры (подробности см. «КТ» #593). Чудесное преображение «золушки» стало возможным благодаря пятнадцати месяцам кропотливого труда нескольких десятков студентов и преподавателей, поднаторевших в computer science, механике, сопромате и астрономии. Несмотря на военный профиль организатора гонок, стэнфордцы видят для своего детища и вполне мирное призвание. По их убеждению, «машина, достаточно умная, чтобы управлять собой, незаменима в Соединенных Штатах, где ежегодно от автокатастроф гибнет больше 40 тысяч человек».
2-е место Sandstorm
Результат: 7 час. 04 мин.
Команда: Red Team, Университет Карнеги-Меллон (Питтсбург)
Спонсоры: Boeing, Science Applications, Caterpillar, Intel, Google
Фаворит двух исторических гонок, так и не увенчанный регалиями, является любимым детищем команды питтсбургских робототехников. С момента прошлого забега аппаратная часть ветерана, построенного на базе 6,2-литрового дизельного грузовика HMMWV образца 1986 года, не претерпела существенных изменений. Как и прежде, она представляет собой затейливый винегрет из изделий нескольких десятков компаний, включая Boeing.
3-е место H1ghlander
Результат: 7 час. 14 мин.
Команда и спонсоры: те же, что у Sandstorm
Этот бот, собранный на базе армейского джипа Hummer 1999 года выпуска, появился на свет специально для участия в нынешней гонке. В его арсенале – семь лазерных сканеров и специальный бортовой компьютер от компании Caterpillar. За зрительное восприятие отвечает батарея лазеров и видеокамер на вращающейся в трех плоскостях платформе, установленной на крыше кабины. Сигналы с приборов поступают на систему из семи процессоров Pentium M, оперативно управляющую 6,5-литровым дизельным сердцем машины. Подобно собрату, этот бот выкрашен красным – в дань уважения неистовому лидеру команды, получившему прозвище за пристрастие красить свою шевелюру в огненно-рыжий цвет.
4-е место Kat-5
Результат: 7 час. 30 мин.
Команда: Gray Team, Университет Тулэйн (Луизиана)
Спонсор: The Gray Insurance Company
Поразительный пример народной инициативы на робототехническом поприще: застрельщиками создания «именного» бота стали Майкл и Эрик Грэй, владеющие страховой компанией из Луизианы. Прознав о готовящемся соревновании со страниц журнала Popular Science, конструкторы-любители бросили клич среди знакомых инженеров и земляков-студентов, взвалив на себя бремя финансирования разработки. После года упорной работы на старте показался модифицированный Ford Escape с гибридной силовой установкой, оснащенный стереоскопическими камерами, GPS-приемниками и вдобавок еще и солнечными батареями – в качестве альтернативного источника питания. Слывший до начала состязаний «темной лошадкой», этот бот стал одним из самых ярких открытий Grand Challenge: по искреннему признанию одного из создателей, «мы едва надеялись, что он пробежит десяток километров».
5-е место TerraMax
Результат: 12 час. 51 мин.
Команда: TerraMax, Oshkosh Truck Corporation
Спонсоры: ArvinMeritor, Caterpillar, Michelin
Наряду с исследовательской компанией Rockwell Scientific и студенческой братией университетов Алабамы и итальянской Пармы к созданию этого бота приложили руку и производители грузовика, адаптировавшие его конструкцию к суровым условиям пустыни. В результате на свет появился самый массивный участник гонки, едва не дотянувший до ограничения по массе в 20 тонн. По жребию TerraMax’у пришлось стартовать одним из последних, и в пути его застали сумерки. Несмотря на уверения создателей в том, что благодаря своим сенсорам их детище прекрасно ориентируется в темноте, пробег пришлось прервать на ночь. Хотя к утру уже был известен лучший результат и стало понятно, что рассчитывать на куш не приходится, члены команды остались верны олимпийскому лозунгу «главное не победа, а участие», заставив свое детище честно отмахать всю дистанцию.
НОВОСТИ: Хочешь мира – готовься к игре
Нобелевская премия мира, присужденная Международному агентству по атомной энергии (МАГАТЭ) и лично его директору Мохаммеду эль-Барадеи (Mohamed ElBaradei) «за усилия по предотвращению использования атомной энергии в военных целях», напоминает награду находящемуся на передовой бойцу. «Присуждение премии усиливает нашу решимость в тот момент, когда перед нами лежит трудная дорога. – Слова эль-Барадеи, как видите, не дышат спокойствием почивающего на лаврах лауреата. – Это знак того, что мы должны продолжать делать то, что делаем, быть беспристрастными и непреклонными».
В борьбе с угрозой распространения ядерного оружия МАГАТЭ отведена важнейшая роль – технический контроль возможности использования топлива мирных ядерных реакторов для производства оружейного урана и плутония. Давление со стороны желающих вступить в ядерный клуб огромное. Без какой-либо санкции со стороны мирового сообщества внесли себя в список ядерных держав Индия и Пакистан, мало у кого остаются сомнения относительно наличия ядерного оружия у Израиля. Два года назад объявила о выходе из Договора о нераспространении ядерного оружия Северная Корея. Постоянные конфликты сопровождают выполнение миссии МАГАТЭ в Иране. Что ж, Агентство не всесильно, оно просто добросовестно делает свою работу, за что и отмечено наградой.
Проблемы конфликтов и сотрудничества (с позиций теории игр) живо интересуют израильтянина Роберта Ауманна (Robert J. Aumann [1]) и американца Томаса Шеллинга (Thomas C. Schelling [2]), разделивших в этом году Нобелевскую премию по экономике. Ведь войны, агрессия, страх, насилие – это то, что разрушает экономики и делает жизнь человека «одинокой, бедной, отвратительной, зверской и короткой» (Томас Гоббс). Вклад социолога Шеллинга тесно связан с развитием теории ядерного сдерживания. Он анализирует переговоры – не только в их классическом виде, но и когда, по словам ученого, «два грузовика с динамитом встречаются на дороге, достаточно широкой лишь для одного». Вот краткая иллюстрация его теории. Возьмем два государства, предъявляющих друг к другу территориальные претензии. Их противостояние имеет две ступени эскалации: военную мобилизацию и начало реальных боевых действий. Взаимная мобилизация ведет к высокой вероятности войны и служит нулевой точкой отсчета в оценке последствий того или иного разрешения ситуации. Приобретения и потери агрессора (a) и жертвы (c), прелести взаимного миролюбия (b) образуют матрицу (табл. 1), в которой одна из сторон выбирает себе строку, а другая – столбец.
Просчитывая возможные стратегии, Шеллинг, в частности, приходит к выводу, что иногда государству бывает выгодно оставить противную сторону в неведении относительно вероятности своей мобилизации. Это оказывает сдерживающее действие. Интересно, что на родине его коллеги Ауманна, в Израиле, придерживаются именно такой политики в ядерном вопросе («ядерная неоднозначность») – существование соответствующих вооружений не подтверждается и не отрицается.
//-- *** --// //-- *** --// Математик Ауманн проанализировал проблемы долгосрочной кооперации. Простейшая иллюстрация – игра «дилемма заключенных» («сознаться и выйти на свободу»), в которой матрица выгод выглядит примерно так (табл. 2). Ауманн показывает, что если в краткосрочном плане выигрывает «изменщик», то при постоянном повторении игры выгодно установление сотрудничества. Но это лишь пример, выводы Ауманна относительно стратегии игр с ненулевой суммой (где все сразу могут выиграть или проиграть) носят гораздо более обширный и глубокий характер.
Капля за каплей
6 октября в театре «Сэндерс» Гарвардского университета случился аншлаг: здесь проходило очередное, пятнадцатое по счету награждение лауреатов Игнобелевской премии (Ignobel Prize, www.improb.com/ig), присуждаемой за самые нелепые и курьезные научные открытия. Ажиотаж, царящий вокруг Игнобелевки, учрежденной юмористическим журналом annals Of Improbable Research («Летопись невероятных исcледований»), растет с каждым годом: билеты на церемонию были раскуплены за несколько недель до начала, и опоздавшим оставалось лишь довольствоваться веб-трансляцией с места события.
Интернетчики оценят нынешний выбор кавалера награды в области литературы: ее коллективными обладателями в кои-то веки стали нигерийские спамеры. Наряду с безвестными создателями покорившего мир прозаического жанра, члены жюри отметили и их колоритных персонажей – отставных президентов, генералов и членов их семей, чьи ярко и образно описанные злоключения кочуют по свету, выворачивая наизнанку души и кошельки. К счастью, ни один из новоиспеченных кавалеров награды на церемонии не появился, что позволило обойтись без жертв: что ни говори, а подобное творчество вызывает чересчур сильные эмоции у многих из нас.
Влияние на умы высоких образцов искусства – тема, еще ждущая своего пытливого исследователя. Возможно, первым шажком в этом направлении станет удостоенная премии мира работа Клэр Ринд (Claire Rind) и Питера Симмонса (Peter Simmons) из университета Ньюкасла, скрупулезно замерявших активность нервных клеток у особей саранчи в момент просмотра ими «Звездных войн». Небезынтересно, кстати, какие бури разыгрываются по утрам под черепной коробкой пользователей изобретения аспирантки Массачусетского технологического института Гори Нанды (Gauri Nanda). Данный прибор под названием Clocky представляет собой будильник на колесах, умеющий надежно прятаться после того, как зазвонит, не давая разбуженному хозяину нажать на кнопку отбоя (см.«КТ» #587). Изобретательница уверяет, что при массовом производстве ее детище способно добавить к рабочему дню немало продуктивных часов на благо экономики.
«Химическая премия» нынешнего года вручена Эдварду Касслеру и Брайану Геттельфингеру (Edward Cussler, Brian Gettelfinger) из Университета Миннесоты. Регулярно посещая студенческий бассейн, Брайан загорелся мыслью выяснить, где плывется быстрее – в воде или в сиропе. Сказано – сделано: засучив рукава, друзья приступили к осуществлению своей идеи. Первоначально в их планы входило заполнить ванну сахарным сиропом, но власти недвусмысленно намекнули исследователям, что в случае засора канализации им светит солидный штраф. Впрочем, экспериментаторы горевали недолго: высыпав в бассейн три центнера гуаровой смолы[Полимер, разбухающий в холодной воде; используется, в частности, в пищевой промышленности] и залив их водой, они пригласили в бассейн своих приятелей-пловцов и взялись за секундомер. Как доказала практика, особой разницы между водой и гелем пловец не чувствует, поскольку увеличившаяся сила трения с лихвой компенсируется возросшей силой гребка.
Путь к научной истине порой не только тернист, но и весьма нетороплив. Лучшее доказательство тому – удостоенное премии по физике исследование, затеянное Томасом Памеллом (Thomas Pamell) из Университета Квинсленда еще в 1927 году и ныне продолжаемое его последователем Джоном Мэйнстоуном (John Mainstone). Предметом изысканий стала смола, теоретически представляющая собой жидкость, но при комнатной температуре ведущая себя как твердое тело. Для того чтобы проиллюстрировать жидкостные характеристики этой субстанции, Томас поместил ее в сосуд и с нетерпением стал ждать капель. Первая упала через восемь лет, вторая через девять… Последняя, восьмая из наблюдаемых капель упала в 2000 году, и теперь Джон с нетерпением ждет девятую.
После раздачи слонов началась культурная программа праздника – этакое подобие КВН для служителей науки. По традиции из года в год он посвящается какой-то определенной теме; так, ныне ею стала бесконечность. В этой связи зрителям была предложена мини-опера «Count Of Infinity» («Подсчет бесконечности»), сольные партии в которой исполняла четверка нобелевских лауреатов по физике и химии минувших десятилетий. Не позабыты и игнобелевские ветераны. На сей раз отличились «птичники»: напутствие будущим лауреатам дал обладатель позапрошлогодней премии по биологии, исследователь гомосексуальной некрофилии у уток Киз Мёликер (Kees Moeliker), а в роли специально приглашенной звезды выступил Дон Физерстоун (Don Featherstone), в 1996 году снискавший награду в области искусства за свою галерею пластиковых фламинго.
Под занавес церемонии на зрителей обрушился каскад лекций в режиме «24/7», в ходе которых лучшие американские ученые рассказывали о главном деле своей жизни. Поистине краткость – сестра таланта: отчет о работе состоял из двух частей, первая из которых была ограничена двадцатью четырьмя секундами, а вторая – семью словами. Как бы, вероятно, ускорился прогресс, если бы подобной лаконичностью отличались все научные симпозиумы…
ТЕМА НОМЕРА: Нулевая итерация
Сегодня мы вновь обращаемся к теме ИТ-инноваций, делая попытку взглянуть на нее с двух точек зрения – разработчиков и инвесторов. От имени разработчиков мы попросили высказаться Игоря Ашманова («Ашманов и партнеры») и Игоря Агамирзяна (Microsoft). Они перечислили и кратко проанализировали ряд инновационных направлений в ИТ, на которых, по их мнению, можно ожидать стремительного роста рынка и грандиозных успехов молодых компаний.
На основе их материалов был составлен список потенциально перспективных технологий:
машинный перевод нового поколения;
новые технологии поиска в Интернете;
софт для работы с мобильным контентом;
интернет-маркетинг нового поколения (управление аудиторией);
распознавание речи для массовых применений;
параллельное программирование.
Осознавая неполноту списка и спорность каждого из пунктов, мы, тем не менее, предъявили его инвесторам и попросили их дать комментарии, а если нужно – что-нибудь добавить. Результат, полученный обработкой ответов Вадима Асадова (холдинг «НейрОК») и Александра Галицкого (AV Galitsky Holding B.V.), вы найдете в материале «Инвестодром». Это тоже список, но более подробный и с примерами компаний, уже работающих по многим из названных направлений.
Вот так, глядишь, методом последовательных приближений, расширяя состав участников, – вдруг да и нащупаем те непостижимые точки взрывного роста. В конце концов, рынок – это то, что думают о нем его участники. Не так ли?
Победить и слона, и кита
Этот разговор про инновации в информационных технологиях впервые зашел на одном из заседаний конференции ИТ-директоров «Русский день-2005» в Сочи. Многие участники дискуссии горячо высказывали мнение, что основные игроки рынка ИТ в России пропустили несколько волн инноваций, закоснели и стали медлительными; другие же не менее горячо это мнение отвергали. На мой взгляд, разногласия и накал страстей спорщиков объясняются просто: рынок ИТ в его классическом понимании (продажа компьютеров, сетевого оборудования, программного обеспечения) еще лет пять назад окончательно вышел из категории «растущих рынков» (несмотря на то что продажи и не думают снижаться). Инновации же возникают на растущих рынках (или сами их «под себя» создают). Работать на растущем рынке легко и приятно – палку воткни, и она расцветет, что ни сделай – рынок все простит, деньги и клиенты текут рекой. Поэтому у тех, кто видел бурный рост рынка классических ИТ в начале 90-х, возникает своего рода ностальгия по молодым и бесшабашным временам.
Но те времена вовсе не прошли, просто сместилась область роста: продажа десктопов и «двигание коробок» с ПО действительно стагнирует, а вот на границах традиционных ИТ постоянно возникают стыки с чем-то новым, где кипят новые идеи и рождаются новые продукты, быстро развиваются новые виды бизнеса.
Вот краткий рассказ про некоторые из них, вполне доступные традиционным компаниям из сферы ИТ (была бы только легкость на подъем).
//-- Мобильный контент --// Сейчас чрезвычайно быстро развивается рынок мобильного контента – игр, справочников, мелодий, картинок для мобильных устройств, в первую очередь сотовых телефонов. В значительной части этот вид бизнеса прямо и цинично ориентирован на отъем родительских денег у недалеких и доверчивых подростков, впервые в истории заимевших что-то вроде карманных денег на счетах мобильных операторов. Однако на этом рынке есть место и для вполне этичных услуг.
Вот простой пример конвергенции традиционного ИТ-бизнеса и мобильных технологий: известная российская компания «Парагон» разрабатывает и продает многочисленные и многоязычные словари для мобильных устройств. Словари лицензируются у традиционных ИТ-разработчиков («МедиаЛингва», ABBYY), издателей (Berlitz) и др. и превращаются в словари для бесчисленного множества модификаций мобильных устройств, от наладонников и смартфонов до дешевых мобильных телефонов. Это довольно перспективный бизнес, созданный за счет объединения давно известных идей в нечто новое. Для этого «Парагону» пришлось создать мощную программистскую фабрику, способную три-четыре раза в год легко переходить на новую ОС или платформу – дело, невиданное в традиционных ИТ.
Большой спрос в мобильном мире также на энциклопедии и справочники – довольно неожиданный после краткого взлета мультимедиа для ПК в середине 1990-х годов. То же касается простеньких игр, многие из которых сейчас возвращаются аж из конца 80-х и переживают второе рождение в мобильниках.
Мобильный мир требует и нового программного обеспечения для бизнеса – пусть и примерно с теми же самыми функциями. Это еще один стык, на котором рождаются инновации. Например, компания «ДИСКо» в прошлом году выпустила продукт «ДИСКаунт» для учета продаж на наладонном компьютере. Это принципиально иная задача, нежели решаемая, скажем, «1С:Торговлей» для настольного компьютера (хотя «1С» один из продавцов этого продукта). Аудитория тоже иная – малый (скорее даже мелкий) бизнес, на уровне лотка или палатки на Горбушке
Лидер в категории «мобильный офис» пока не появился. Соответственно, нет и общего стандарта, хотя он всем очень нужен. Кто его разработает и внедрит, тот будет монополистом (боюсь, им опять окажется Microsoft).
//-- Искусственный интеллект и мобильные технологии --// В области ИИ обещания создать говорящих роботов, устройства распознавания речи, машинные переводчики даются уже более сорока лет, однако сделано не очень много. Мне кажется, в первую очередь потому, что у рядового потребителя не было потребности в разумном поведении бытовых устройств. Однако с проникновением ИТ, а особенно мобильников в массы эта потребность появилась.
Мобильные устройства и телефоны сейчас остро требуют внедрения технологий ИИ. В первую очередь – распознавания речи.
//-- Распознавание речи --// Насколько удобнее было бы вводить SMS или номер абонента вслух, чем с помощью убогой клавиатуры и капризного алгоритма Т9! Не говоря уже о пользовании мобильником в автомобиле, где управлять звонками голосом гораздо удобнее и безопаснее. Но до сих пор эта проблема не решена; я не говорю об элементарных голосовых метках, которые есть во многих современных телефонах – там, по сути, распознается не речь, а звуковой паттерн, и они начинают сбоить уже при числе меток номеров более 15—20.
Вообще же качество распознавателя определяется соотношением числа узнанных слов к допустимому числу разных дикторов. Сейчас существуют системы только двух крайних типов – множество слов для одного или нескольких дикторов (скажем, 60 тысяч слов/1 диктор) и много дикторов с несколькими десятками слов. А чтобы обслуживать массового пользователя, нужны системы для множества дикторов с множеством слов.
Первый тип голосовых систем используется для диктовки текстов или управления компьютером, при условии тщательного обучения системы вашему голосу. Такие системы после обучения работают довольно надежно. Однако массовый пользователь никогда ничего не настраивает, никогда ничему не обучает, это известный факт. Настройки в операционной системе, текстовом редакторе или на веб-сайте поисковика меняют не более 1—2% пользователей.
Второй тип распознавания используется для элементарных вопросо-ответных систем в центрах обслуживания абонентов, для набора номера голосом, в так называемых голосовых порталах, но тут технология работает не очень хорошо. Понятно, что системы с многими дикторами должны работать без обучения с любым диктором, и это их проклятие.
В общем, безупречная массовая система типа, скажем, 1000/1000 или 1000/10000, то есть для многих дикторов с распознаванием нескольких сотен слов (а уж тем более фраз или слитной речи любого диктора), пока не создана. Тот, кто создаст такую систему для английского, немецкого, китайского, да и для русского языка, озолотится.
Естественно, такие системы активно разрабатываются. На мой взгляд, тут самая обещающая идея – перейти от «сугубо технического» распознавания 90-х годов (очистка сигнала, нарезка, угадывание фонем и пр.) к распознаванию «по смыслу», по контексту, то есть к предугадыванию того, что могло бы быть сказано. Именно так распознает речь человек: без знания контекста и заранее сформированной модели ситуации мы ошибаемся в распознавании на слух абстрактных текстов не реже машины. А предугадать круг возможных реплик не слишком трудно, это и так делают при создании любого центра обработки звонков, службы технической поддержки и пр.
Ясно, что заранее обученные контексту системы можно создавать только для ограниченного контекста, то есть для узких и хорошо описанных предметных областей (или они должны надежно распознавать предметные области и быстро переключаться между ними). Тем не менее для массовых справочных сервисов в мобильном телефоне этого было бы вполне достаточно.
Вторая перспективная идея – отказ от попытки точно распознать всю фразу. Вместо этого нужно «ловить» в потоке непонятной речи ключевые слова и фразы – и по ним строить гипотезы о возможном содержании запроса. Это тоже близко к тому, как распознает речь человек, особенно в условиях шума, сильного акцента собеседника, большого количества неизвестных слов в его речи. Фактически нужно превратить распознаватель в поисковую машину по возможным репликам пользователя.
//-- Виртуальные собеседники --// Рынок мобильного контента требует интеллектуальных агентов, умеющих поддерживать связный диалог – болтать в чате, осуществлять навигацию по услугам, выбирать картинки или мелодии… Из развлечения для студентов и профессоров и повода выиграть престижный, но практически бесполезный приз Лёбнера (на прохождение теста Тьюринга на «человечность») виртуальные собеседники превращаются в серьезный бизнес. Уже появляются первые «виртуальные подружки» – тамагочи в мобильнике, – требующие внимания и подарков.
Для английского языка это сделать проще, а для немецкого или русского – гораздо сложнее. Такие стартапы сейчас то и дело появляются. Например, российская компания «Наносемантика» разрабатывает виртуальных собеседников для русского и английского языков, позволяющих вести связный диалог по SMS и в Интернете, и к ним очень большой интерес проявляют агрегаторы мобильного контента.
Главные идеи разработки близки описанным выше для распознавания речи – нечеткое распознавание, отказ от жестких «лингвистических» шаблонов, превращение распознавателя фраз в поисковую машину по возможному контексту.
В общем, поддерживать связный диалог с роботом уже вполне возможно – в узких предметных областях. Когда к таким речевым агентам присоединится настоящее распознавание звуковой речи, в общении человека и компьютера произойдет революция. И те, кто ее возглавит, станут богаче если не Гейтса, то уж Брина с Пейджем точно.
//-- Новый интернет-бум --// После того как лопнул пузырь доткомов, казалось, что интернет-бизнес больше никогда не наберет такого же хода. Тем не менее в 2003—04 годах начался новый бурный рост, но уже не на дрожжах обещаний и надежд, а на солидном основании больших заработков на рекламе. И потребности пользователей, и инновации в Интернете теперь – настоящие.
//-- Новые поисковые системы --// Новые короли Интернета – поисковики. Зарабатывая большие деньги на контекстной рекламе, они стали единственным входом во всемирную сеть для полумиллиарда пользователей. Однако, на мой взгляд, сами поисковые машины сейчас находятся в удручающе застывшем состоянии: релевантность поиска не растет или даже падает, пользовательский интерфейс остается на уровне 1999 года – бесконечная лента результатов поиска, где в одну кучу свалены форумы, сайты, товарные предложения, новости и, конечно, поисковый спам: бесконечные входные страницы, липовые сайты, фальшивые каталоги, платные бессмысленные ссылки… Развитие поисковиков идет экстенсивно – по пути превращения в порталы с мультисервисной моделью, новостями, товарами, богатым контентом, почтой, электронными деньгами.
Пользователям, как мне кажется, очень нужна новая парадигма поисковой машины.
Наиболее перспективные идеи в это области таковы:
Структурирование результатов поиска. Чтобы облегчить выбор среди найденного, результаты нужно разбивать по темам и типам документов. Для этого необходимо вводить распознавание тематик и структуры данных при индексации веб-страниц. Хороший пример такого структурированного поиска – портал A9.com, созданный при участии Amazon.
Специализированные поисковики. В очень многих областях интересов вместо общего поисковика лучше использовать специализированный поиск по разным сущностям (тем или иным предметным областям, товарам, блогам, сообществам, новостям). Результаты должны объединяться и структурироваться.
Коллективный поиск. Для структуризации и организации результатов поиска можно привлекать на помощь сообщества пользователей. Такие проекты уже существуют и получают инвестиции.
Мобильный поиск. Не будем забывать о приходе в Интернет мобильных пользователей, которых в разы больше, чем нынешних интернетчиков, – им рано или поздно потребуется голосовое общение с поисковой машиной (а значит, диалог с нею на естественном языке).
Те, кто первыми предложат новые виды поиска и интерфейсы поисковых машин, станут новыми Деллами и Бринами. Впрочем, сейчас в отрасли интернет-поиска начинается великая битва слона с китом – Google с Microsoft[См. по этому поводу обсуждение в «КТ» # 606. – Л.Л.-М.]. Но не думаю, что через пять-семь лет победителями будут сегодняшние поисковики – скорее, ими станут новички (как не известен был Google семь лет назад). Сейчас в США и Европе в год появляются несколько десятков громких стартапов, в той или иной форме реализующих вышеперечисленные идеи поиска.
//-- Гибридные сайты или замешивание данных (Mash-ups) --// Недавно начал бурно развиваться еще один новый вид проектов в Интернете – сервисы, создаваемые «поверх» поисковых порталов (и их сервисов), крупных магазинов, блогов за счет объединения различных типов данных. Несколько примеров: поиск людей (коллег, одноклассников) с одновременным показом их местонахождения на картах Google; разбор криминальных сводок с сайта полиции города с отметкой происшествий на тех же картах Google, что позволяет понять, насколько криминализован твой район; соединение данных об автомобильных пробках от Yahoo! с картами Google; поиск по Amazon и объединение на той же странице данных других магазинов для сравнения цен, и т. д.
Пока этот вид бизнеса довольно рискованный, ибо зависит от доброй воли всех владельцев данных. Скажем, Google категорически против метапоисковых сервисов, использующих его результаты поиска (он даже блокирует их, если создается большой трафик), но не очень возражает против использования своих карт. Есть уже случаи блокирования со стороны Yahoo! и Google доступа с таких гибридных сайтов, замешивающих их данные. Но надо учесть, что обычно с грандами Интернета трудно договориться заранее. А вот постфактум – можно. Если ты сделал гибридный сайт, никого не спрашивая, и доказал, что можешь привлечь большую аудиторию, а главное – можешь показать, где в твоей схеме деньги для Google или MSN, то договариваться гораздо проще. Стало быть, риск есть, но выигрыш может быть громадным и быстрым – гибридные сайты зачастую привлекают миллионы посетителей моментально и без всякой раскрутки.
//-- Машинный перевод для поисковиков и мобильников --// Машинный перевод – больная тема вот уже полвека. Несмотря на значительные вложения и затрату чудовищного количества человеко-лет в США, Европе и России, прорыва нет. Состояние отрасли всякий может увидеть на примере работы российского «ПРОМТа». В последние годы «ПРОМТ», несомненно, лучшая в мире система перевода. Но то, что эта лучшая в мире система дает на выходе, часто напоминает не очень хороший подстрочник. Сейчас компьютерные переводчики можно использовать только для выбора текста на нужную тему, для быстрого ознакомления с документацией на товар или изделие, для пролистывания сайта конкурента в Китае или Японии (ценно хотя бы то, что вместо кракозябров на экране появляется привычная латиница или кириллица). Я считаю, что традиционные «словарные» системы автоматического перевода уже восемь-десять лет находятся в идейном тупике, и из технологии перевода, основанного на словарях, выжато все возможное.
Однако задача перевода вдруг обрела второе дыхание. Автоматические переводчики теперь нужны не только профессионалам-переводчикам, аналитикам спецслужб и библиотекарям, и это дает надежду на прорыв. Появилась новая аудитория – пользователи Интернета и мобильных устройств, которым требуется языковая прозрачность информационного пространства. Тут же возник и новый подход к решению задачи автоматического перевода – использующий, при помощи поисковых машин, «человеческие» образцы перевода. Это развитие довольно давней идеи статистического перевода, применяемой к гигантским индексам поисковиков – хранилищам текстов с удобным поиском и сравнением образцов.
Идея поискового перевода внешне проста: поисковик, индексирующий гигантский объем данных, всегда может вычленить из него параллельные тексты (или хотя бы фразы) – образцы перевода, сделанные людьми (даже если в Сети эти образцы лежат далеко друг от друга и внешне не связаны). Сделать это можно по «похожести» – так же как поисковик определяет дубли веб-страниц на одном языке.
Ну а сделать из образцов параллельных текстов гибкие шаблоны перевода – задача лингвистически сложная, но вполне решаемая. Вот и Google уже создает свой переводчик и даже получает за него призы[Об этой и других новых идеях в области машинного перевода см. «КТ» #608– Л. Л.-М]. Я уверен, что вскоре этим займутся и другие поисковики, например MSN. Впрочем, не факт, что преуспеют здесь именно поисковики. Скорее, их ресурсы будут текстовой базой для систем перевода, созданных разработчиками, имеющими опыт в прикладной лингвистике.
Итак, если вспомнить про конвергенцию Интернета с мобильниками и распознавание речи, мы вплотную подходим к идее устройства, описанного в фантастических романах, – к универсальному коммуникатору, маленькой коробочке, лежащей на столе и переводящей речь разноплеменных собеседников.
//-- Интернет-маркетинг и реклама --// В настоящее время происходит быстрый идеологический сдвиг в области интернет-рекламы. На смену традиционной баннерной и контекстной рекламе (по поисковым словам) идет контекстно-чувствительная реклама. Эта реклама способна учитывать как контекст страниц, на которых она показывается, так и контекст пользователя (его предыдущие действия и привычки поведения в Сети). Фактически на стыке традиционной интернет-рекламы и классического маркетинга возникает новое направление, я назову его управление аудиторией. Первыми, относительно простыми примерами за последние два-три года послужили системы контекстно-чувствительной рекламы наподобие Google AdSense, «АвтоКонтекста» Бегуна, РОРЕРа и подобных им. Сейчас возникают новые игроки, новые продукты и сервисы.
Например, появляются разветвленные партнерские системы с показом на веб-страницах товарных предложений, релевантных содержанию страницы. На смену баннерам могут прийти «мини-сайты» с возможностью навигации по ним прямо на рекламной площадке, без перехода на рекламируемую веб-страницу. Следует упомянуть автоматизированные сервисы по управлению интегрированными рекламными кампаниями на аукционе eBay, в контекстных системах в поисковиках и на партнерских сайтах (с анализом эффективности, автоматическим отзывом проданных или непродающихся позиций и пр.). Сюда же относится тематическая реклама в блогах и новостных RSS-лентах; реклама в почте, привязанная к содержанию писем. Быстро развивается также анализ поведения аудитории и отдельного пользователя, с распознаванием категории пользователя по его поведению. Вместо традиционных счетчиков появляются аналитические продукты нового поколения, позволяющие контролировать не посещаемость, а полное состояние интернет-маркетинга клиента.
Мне кажется, лицо интернет-рекламы радикально изменится за ближайшие два-три года, и тут огромный простор для инноваций.
Я не коснулся других огромных областей для инноваций, возникающих на стыках отраслей (скажем, веб-сервисов и мобильных сервисов), – например, средств использования традиционного софта новыми способами. Каждый такой стык – бесконечная тема. Инновации возникают там, где возникают реальные потребности массы пользователей, или там, где кто-то умный придумывает для них новую потребность. А таких областей вокруг ИТ – множество.
О «большом скачке» на рынке платформ
Начну с несколько неожиданной, наверное, аналогии. В советской традиции было принято, говоря о промышленности в целом, выделять группу А и группу Б: производство средств производства и производство товаров народного потребления (в других терминах – тяжелая и легкая промышленность). На мой взгляд, в индустрии информационных технологий к сегодняшнему дню образовалась более сложная модель: можно выделить по крайней мере четыре четко очерченных сегмента – средства разработки, платформы, бизнес-приложения и решения, ориентированные на конечного пользователя (при этом первые три сегмента соответствуют группе А, а последний – группе Б). Естественно, существует ряд решений на стыке сегментов (например, домашние сети – это и платформа, и потребительская технология). Важно, однако, что говорить об инновационной привлекательности ИТ в целом бессмысленно – в этих сегментах принципиально различные показатели возврата инвестиций.
Очевидно, что самым массовым рынком является рынок потребительский. Именно на нем всегда достигался максимальный успех внедрения новых технологий, даже в случае базовых высокотехнологичных решений. Персональных компьютеров, например, в мире гораздо больше в частном пользовании, нежели в организациях. Наблюдаемая в России картина (домашних компьютеров – примерно четверть от всех имеющихся в стране) свидетельствует только о перекошенном и неразвитом рынке. Но, скажем, феномен мобильных телефонов реализовался в нашей стране уже по общемировой схеме.
Поэтому я думаю, что с точки зрения инновационной привлекательности потребительский рынок ИТ является наиболее перспективным, тем более что в последнее время многие технологии, изначально создававшиеся для решений, ориентированных на бизнес, начали прокладывать путь в дома, квартиры и карманы людей (например, уже упоминавшиеся домашние сети). Сегодня ясен уже и мэйнстрим направления развития потребительского ИТ-рынка – это тотальная конвергенция всего и вся. Совсем скоро – лет через десять-пятнадцать – мы забудем о раздельных сетях и каналах доставки информации (сегодня в типичную квартиру приходят, не говоря об эфирных сетях, по крайней мере телефонный провод, радиовещательный кабель, телевизионный коаксиал, а в продвинутую – еще и кабель локальной сети). Они будут проинтегрированы в общей проводной или беспроводной широкополосной сети передачи данных с коммутацией пакетов, а все оконечные устройства (телефоны, телевизоры, радиоприемники, музыкальные центры, часы и т. д.) станут различными модификациями компьютерной платформы. Эта тенденция настолько очевидна, что даже не хочется приводить подтверждающие примеры. Те, кто сможет включиться в этот процесс и предложить новые (и востребованные!) функциональные устройства, услуги и бизнес-модели, просто обречены на успех. Одновременно, кстати, этот процесс является и угрозой для многих представителей традиционного бизнеса, особенно коммуникационного, – как бы традиционные операторы ни боролись с IP-телефонией, будущее за ней (или за ее следующей реинкарнацией), а при массовом внедрении широкополосных беспроводных сетей (например, WiMAX) на существенное техническое перевооружение придется пойти и операторам мобильной связи.
Одновременно с уверенностью в инновационной привлекательности потребительского рынка ИТ на глобальном уровне я весьма скептически отношусь к перспективности российских компаний, ориентированных на него. Уж слишком глубока культурная зависимость этого рынка. Чтобы предложить востребованное на нем решение, надо понимать реальные потребности людей (или уметь выдумывать и внушать людям новые потребности). Увы, в поколении, к которому относятся лица, принимающие решения (те, кому сейчас 30—50 лет), очень мало людей, действительно обладающих нужными способностями. Мы выросли в искусственно изолированной от мира и (зачем стыдиться?) бедной стране, а культура (в том числе и культура потребления) закладывается в детстве и юности. Сейчас только входит в жизнь поколение двадцатилетних, лишенных этого недостатка. Наша молодежь выросла уже в глобальном мире. Именно у этих ребят, с детства ездивших за границу, видевших развитие потребительского рынка в стране, зачастую учившихся в западных университетах и выбравших для себя путь возвращения в Россию, есть шанс создать технологические компании, способные предложить востребованные потребительские продукты и услуги. К сожалению, их создание, рост и развитие займет определенное время – и существует не меньший шанс на то, что это поколение просто не успеет принять участия в уже начавшейся новой инновационной волне – к тому времени, когда они смогут предложить свои продукты, передел потребительского рынка ИТ уже произойдет.
Рынки платформ и решений для бизнеса – следующие по инновационной привлекательности направления. Однако для российских компаний между ними есть существенная разница. Если рынок платформ является глобальным и унифицированным, то рынок бизнес-приложений тоже культурно-зависим, – именно удачной игрой на специфике местного рынка, например, объясняется феноменальный по российским масштабам успех компании «1С». И по тем же причинам, которые описаны в предыдущем разделе, я довольно скептически оцениваю перспективы российских компаний на этом рынке в глобальном масштабе. Тем более что в отличие от потребительского рынка ИТ на рынке бизнес-приложений не заметно новых идей и тенденций – скорее всего, это будет эволюционное развитие и постепенная интеграция существующих технологий и продуктов во всеохватывающие решения, объединяющие АСУТП и АСУ (в современных терминах – SCADA, MES, ERP и CRM)[SCADA (System Control And Data Acquisition) – система телеметрии и телеуправления; MES (Manufacturing Execution System) – система управления производством в реальном времени; ERP (Enterprise Resource Planning) – система планирования ресурсов предприятия; CRM (Customer Relationship Management) – система управления взаимоотношениями с клиентами. – Л.Л.-М.].
Зато на платформном рынке можно в ближайшее время ожидать большого скачка! С моей точки зрения, он будет связан с двумя тенденциями: во-первых, с «платформизацией» задач искусственного интеллекта, а во-вторых, с выходом параллельных систем на массовый рынок. Об искусственном интеллекте последние годы считалось даже неприличным говорить – термин был скомпрометирован несостоявшимися ожиданиями 60—70-х годов. Однако постепенно в научных лабораториях довели до уровня практического использования почти все задачи, традиционно ассоциировавшиеся с ИИ, – в первую очередь различные технологии распознавания и синтеза, – и в следующие несколько лет произойдет их массовое внедрение на платформном уровне. Компании, которые смогут предложить наиболее эффективные реализации интеллектуальных средств общения с компьютером, получат колоссальный возврат инвестиций. Правда, я думаю, что конкуренция в этой области развернется в основном между крупными глобальными игроками, поскольку платформные решения сегодня требуют гигантских начальных инвестиций, на которые стартапы не смогут пойти даже при наличии идеальных условий венчурного финансирования (в 20-е годы прошлого века можно было построить самолет в сарае и основать авиастроительную компанию; сегодня смешно пытаться конкурировать с Boeing и Airbus в разработке авиалайнера нового поколения).
Другое направление, лежащее на стыке платформы и средств разработки, а именно системы параллельного программирования, представляется мне весьма перспективным с точки зрения инновационной привлекательности. Дело в том, что за массированной маркетинговой компанией по продвижению на рынок многоядерных процессоров остался совершенно забытым и незамеченным ключевой вопрос: а как на этих системах эффективно программировать? Совсем скоро мы увидим на рабочих столах многопроцессорные и многоядерные системы (уже сейчас некоторые производители предлагают одноплатные кластеры, и за вполне приемлемые деньги – несколько тысяч долларов – можно получить настольную инженерную рабочую станцию, превосходящую по характеристикам самые мощные вычислительные системы пятнадцатилетней давности). Тем не менее парадигма параллельного программирования, позволяющая эффективно утилизировать доступные ресурсы, до сих пор не создана, несмотря на то что исследования в этой области ведутся столь же долго, как и в области искусственного интеллекта! Думаю, однако, что произошло это именно из-за недостаточной востребованности такой парадигмы и поддерживающих ее языков и средств программирования – уникальные вычислительные задачи можно запрограммировать и в Хоаровской парадигме с использованием MPI[Message Passing Interface, взаимодействие на основе передачи сообщений. – Л.Л.-М.]. С появлением массовых параллельных систем (а оно неизбежно, и не в силу маркетинговой активности производителей процессоров, а в результате достижения технологических ограничений по росту тактовой частоты) востребованность средств параллельного программирования возрастает на порядки. Бизнес-преимуществом этого направления для российских инновационных компаний является его культурная независимость (параллельная система будет одинаковой что в России, что в Европе, что в США) и «инвестиционная легкость» – на сегодняшний день требуется, скорее, блестящая научная идея, а не дорогостоящая реализация платформного решения.
Инвестодром
Здесь читатель может ознакомиться с точкой зрения другой группы участников инновационного процесса – бизнесменов, инвестирующих в инновационные ИТ-проекты. Спектр приводимых мнений инвесторов претендует лишь на то, чтобы дать некоторое представление об оценке этим сообществом текущей ситуации.
Разумеется, деление на «инвесторов» и «разработчиков» несколько условно, тем более в России, где инвестиции компаний в собственные разработки – основной, пожалуй, вид инвестиций в хайтек. Но я прошу обратить внимание на то, как меняются ответы в зависимости от позиционирования отвечающего. Те, к кому мы обратились как к инвесторам, отнеслись к проблеме «куда вложить свои деньги» с хорошо заметным (на фоне, пусть и взвешенного, энтузиазма разработчиков) консерватизмом.
Вадим Асадов, президент инновационного холдинга «НейрОК»[Беседу с ним о проблемах российского инновационного бизнеса см. в «КТ» #588], был не слишком обстоятелен. По его мнению, всплеск в ближайшем будущем может произойти на рынке систем «индивидуальной виртуальной безопасности», к каковым относятся анонимайзеры, шифрованные почтовые службы и т. п., – навстречу волне все более широкого доступа государства и корпораций к персональным данным двинется ответная волна защиты частной жизни. Другие перспективные темы – виртуальные игровые миры, новые формы медиа. Среди задач из предложенного списка его воодушевил, да и то «совсем чуть-чуть!», интернет-маркетинг нового поколения. Для остальных технологий Вадим не видит реальных потребителей: ни людей, ни компаний, чьи проблемы эти технологии бы решали. Он скептически отнесся и к потенциалу новых подходов в задачах распознавания, понимания текста, поиска в Интернете.
Зато Александр Галицкий (aV Galitsky Holding B.V.)[Рассказ Александра об организованном им «Тех Туре» 2004 года и вообще о судьбе хайтека в России см. в «КТ» #557], что называется, подробно раскрыл тему. Технологии поиска (но не только и не столько для Интернета), распознавание речи, технологии управления целевой аудиторией будут, как он считает, оставаться очень привлекательными для инвестора в ближайшие три-пять лет, равно как и корпоративный блоггинг (Corporate Blogging), сервисно-ориентированные архитектуры, а заодно многообещающее направление из совсем другой области – углеродные нанотрубки. В ответ на наш список технологий Александр привел свой список – примеров инновационных компаний, работающих в этих и смежных направлениях (в данном случае слово «российская» или «наша» часто означает «ведущая R&D в России»):
новые технологии поиска: здесь интересны компании Mamma и российская Quintra визуализация данных: примером могут служить Trolltech и наш Parallel Graphics
аггрегирование контента: стоит упомянуть authorhouse [Крупнейший из порталов для авторов, желающих самостоятельно публиковать и продвигать на рынке свои книги; неочевидная, казалось бы, бизнес-перспектива – а вот поди ж ты];
виртуализация компьютерных ресурсов, операционных систем и ресурсов памяти (дающая доступ к «бесконечным» объемам ресурсов): отметим Vmware и российские SWsoft и Parallels;
вопросы безопасности остаются на вершине технологического спроса: здесь стоит назвать SmartLine, ElcomSoft, "Ашманов и партнеры";
инструменты для совместной работы (collaboration) в реальном времени: GrooveNetworks. Это очень важное направление, естественный потребитель целого ряда новых технологий ( в том числе поиска информации и управления контентом);
инструменты и сервисы для виртуальных сообществ (сommunity): LinkedInили наш Softkey, интернет-магазин софта c очень широкими возможностями поддержания сообщества разработчиков.
Что ж, мы ознакомились с мнением ряда активных деятелей нашего (пока еще небольшого) рынка ИТ-инноваций о том, куда следует двигаться в обозримой перспективе. Будем следить за развитием событий в отрасли – и расширять наши знания о ней.
Terralab.ru: Микрофишки
//-- Принтеры Xerox Phaser 6300/6350 --// цветная лазерная печать
скорость печати в формате A4 35 стр./мин (25 стр./мин. в цвете для 6300)
разрешение до 1200 dpi
процессор PowerPC с тактовой частотой 800 МГц
расширение емкости лотков до 2350 листов (опция)
максимальная загрузка до 120 тысяч страниц в месяц
поддержка Adobe PostScript
цена от $1780
Эти однопроходные принтеры оснащаются утилитой PrintingScout, которая сообщает о сбоях в печати, вызванных, например, израсходованием тонера или бумаги, а заодно помогает неискушенным пользователям графическими инструкциями по загрузке тонера, дабы не нарушать медитативный покой местного гуру (в смысле системного администратора). Другая утилита, PhaserSMART, открывает доступ к базе знаний для поиска и устранения неисправностей (вы много знаете работников, читавших хотя бы самый последний амебный хелп? да? вам повезло…), а также отображает формат и тип материала, загруженного в лотки с соответствующей специальной функцией. Доступ к принтеру и контроль его состояния может осуществляться через встроенный веб-сервер CentreWare IS (и он же отвечает за отправку почтовых уведомлений о том, что кончается тонер).
//-- Принтеры Xerox Phaser 8500/8550 --// печать твердыми полимерными чернилами
скорость до 24/30 стр./мин.
вывод первой страницы за 5 с (8550)
разрешение до 2400 dpi
600-МГц процессор PowerPC
лотки объемом до 1675 листов
максимальная загрузка до 85 тысяч листов в месяц
поддержка Adobe PostScript
цена от $900
Два других принтера, представленных компанией «Ксерокс Евразия», предназначены для малых и средних рабочих групп. Принтеры поддерживают стандартное сетевое подключение и имеют встроенную систему учета работ. С ними поставляются те же утилиты, что и с 6300/6350, а также веб-сервер CentreWare. Твердочернильную печать производитель видит альтернативой лазерной технологии, позволяющей создавать более точные, плотные и глубокие отпечатки.
//-- Принтеры Dell 1710/n --// монохромная лазерная печать
скорость до 27 стр./мин.
разрешение 1200 dpi
интерфейс USB 2.0 (плюс 10/100 Base-T Ethernet для варианта 1710n)
максимальная загрузка до 15 тысяч листов в месяц
366-МГц процессор
800-страничная вместимость (с опциональным 550-страничным лотком)
габариты 140x148x243 мм
Принтеры начального уровня от Dell примечательны небольшим размером и низкой ценой в сочетании со сравнительно высокой производительностью. В стандартной комплектации идет картридж на 3 тысячи страниц, а картридж на 6 тысяч страниц предлагается в качестве опции. Предназначены новинки для малых рабочих групп либо для индивидуального использования (модель 1710). К обеим модификациям можно за сотню долларов докупить адаптер Wi-Fi Dell 3300, после чего они превратятся в беспроводные сетевые принтеры. Интересная деталь: принтеры отвечают ограничению Евросоюза на использование опасных для здоровья материалов и содержат менее 0,1 весового процента свинца. Модель с суффиксом n отличается встроенной сетевой картой 10/100 Base-T Ethernet. Новинки в скором времени должны появиться на российском рынке, по рекомендованной цене 200/300 долларов.
//-- Ноутбук Toshiba Tecra S --// процессор Pentium M 740—780 (1,73—2,26 ГГц, 533-МГц FSB, 2 Мбайт кэша L2)
чипсет Intel 915PM
15-дюймовый экран с разрешением 1024x768 (либо 1400x1050)
графический адаптер nVidia GeForce Go 6600 с 64 (либо 128) Мбайт видеопамяти
жесткий диск объемом 40—100 Гбайт (5400 об./мин.)
256 Мбайт (до 2 Гбайт) памяти DDR2 533 МГц
оптический привод Ultra SlimBay (комбинированный или DVD-SuperMulti с поддержкой двухслойных носителей)
адаптер 802.11b/g либо 802.11a/b/g, модуль Bluetooth 2.0 (опция)
габариты 333x275x38 мм
вес 2,86 кг
цена от $1600
Акцент в продвижении этого ноутбука Toshiba делает на расширенных функциях безопасности. В Tecra S реализована фирменная технология EasyGuard – аппаратно-программный комплекс для обеспечения защиты и физической сохранности данных, простоты подключения и оптимизации работы. Защитой ведают TPM (Trusted Platform Module), считыватель отпечатков пальцев и дополнение под названием HDLock – USB-ключ A-Key, который в комбинации с личным паролем позволяет шифровать данные жесткого диска и делать их недоступными при отсутствии ключа и незнании пароля. Позаботилась Toshiba и о физической сохранности ноутбука, применив специальные амортизационные материалы, оберегающие дисплей и винчестер. Кроме того, при малейшем подозрении на опасность (падение, удар или вибрация) защитный блок, снабженный 3D-акселерометром, принудительно паркует головки жесткого диска.
//-- Видеокамера JVC Everio GZ-MG70 --// 1/3,6” ПЗС-матрица, 2,12 мегапиксела
2,5” ЖК-экран с разрешением 115 кп
объектив с 10-кратным зумом и апертурой F1,8—2,2
встроенный жесткий диск объемом 30 Гбайт
время работы от батареи 50/25 мин. (экран выкл./вкл.)
размеры 109x71x70 мм, вес 450 г
цена 1100 евро
Очередной новобранец в линейке видеокамер с жестким диском использует при съемке видео (16:9 либо 4:3) лишь часть своего сенсора (максимум 1,2 Мп), а вот при фотографировании задействует его целиком (1,92 млн. эффективных пикселов). Оптическая стабилизация изображения не предусмотрена, есть только цифровая. Преимущество жесткого диска перед, например, DVD-дисками, конечно же, в большом объеме. Так, на 30-Гбайт винчестер войдет до семи часов в режиме Ultra (9 Мбит/c), до десяти в режиме Fine (6 Мбит/c), до четырнадцати в Norm (4,5 Мбит/с) и до тридцати семи часов в режиме Eco (1,7 Мбит/с) – первые два в формате 720x280, последние в 352x240. Жесткий диск защищен от вибрации (помогают особые полимерные амортизаторы) и ударов (используется детектор падения, как в ноутбуках). На компьютер данные передаются через USB-порт, а разъем SD можно использовать для сохранения и переноса фотографий. В комплект входит ПО для редактирования видео (PowerDirector Express) и плейер PowerDVD.
//-- Камера Sony CyberShot N1 --// 8-Мп 1/1,8-дюймовый ПЗС-сенсор Super HAD
объектив Carl Zeiss Vario Tessar с 3-кратным зумом (38-114 мм в 35-мм эквиваленте), F2,8—5,4
светочувствительность ISO 64—800
3-дюймовый сенсорный ЖК-экран с разрешением 230 кп
видео 640x480@30 со звуком (MPEG VX)
26 Мбайт встроенной памяти
внешние носители MS Duo и MS Pro Duo
до 270 снимков без подзарядки батареи
габариты 94x60x20 мм
вес 139 г
цена около $500
Новая компакт-камера примечательна не только высоким разрешением матрицы, но и 3-дюймовым экраном, который к тому же обладает сенсорными возможностями. Производитель предлагает использовать это богатство не просто для съемок, но и для хранения и просмотра снимков. N1 позволяет хранить до пятисот фотографий в низком разрешении (VGA) и демонстрировать их под музыкальный аккомпанемент (у камеры есть встроенный динамик). Fine-режим видеосъемки возможен только при использовании карты Pro Duo. При пакетной съемке камера позволяет делать до четырех снимков с максимальным разрешением со скоростью 0,9 кадра в секунду.
//-- Камера Olympus SP 700 --// 6-Мп 1/2,5-дюймовый ПЗС-сенсор
оптика: 3-кратный зум (38—114 мм, в 35-мм эквиваленте), F3,3—4,0
цифровой стабилизатор для видеосъемки
светочувствительность ISO 64—400
скорость срабатывания затвора от 4 до 1/2000 c
3-дюймовый ЖК-экран с разрешением 230 тысяч пикселов
внешние носители xD-Picture Cards
11 Мбайт встроенной памяти
видео 640x480@30 со звуком
съемка в режиме Super Macro с расстояния от 1 см
габариты 98x57x25 мм
вес 140 г
Аппарат, как видим, использует тот же большой ЖК-экран, что и новинка от Sony (оптического видоискателя нет). Камера предлагает двадцать четыре сцены для быстрой настройки, в том числе подводную съемку, для которой потребуется дополнительный аксессуар – специальный кожух PT-013. Отметим режим Super Macro (в котором можно снимать с расстояния всего 1 см) и режим Multi-Shot, панорамную съемку и возможность вставки названия кадра или даты. Кроме того, камера может снимать в сепии и черно-белом вариантах, а также позволяет корректировать яркость, насыщенность цветов и цветовую температуру. О сроках появления на российском рынке и цене, данных пока нет.
//-- Epson PictureMate Express Edition --// шестицветная пигментная печать
скорость 80 с на снимок 10x15 см
цена $150
Новая редакция «персональной фотолаборатории» от Epson с повышенной скорострельностью. Как и все принтеры серии PictureMate, новинка печатает снимки размером до 10x15 см, причем обещает сохранность отпечатков до четырех раз большую, нежели традиционная фотография (до 104 лет под стеклом и до 200 лет в альбоме). Поддерживаются «причиндалы», подходящие к остальным принтерам серии: например, 70-долларовый Bluetooth Photo Print Adapter, позволяющий печатать без проводов с сотовых телефонов и КПК. К принтеру подходят три набора расходных материалов: на 270 листов ($65), на 100 листов ($30) и на 100 листов матовой бумаги ($34).
//-- Графические процессоры ATI Radeon X1000 --// 90-нм техпроцесс
шина PCI-Express x16
поддержка Shader Model 3.0
64-бит HDR (High Dynamic Range) и одновременное сглаживание
режим адаптивного сглаживания (Adaptive Anti-Aliasing)
режим высококачественной анизотропной фильтрации (High Quality Anisotropic Filter)
поддержка CrossFire
Долгожданная серия новых графических процессоров от ATI увидела свет в первую неделю октября. Она включает в себя три совсем разных чипа– X1800, X1600 и X1300. У X1800 с его 321 млн. транзисторов – шестнадцать пиксельных и восемь вершинных конвейеров. Названный производителем, ни много ни мало, быстрейшим графическим процессором на планете, он использует 512-разрядный доступ (на самом деле, это новая кольцевая шина памяти с двумя 256-разрядными контроллерами, передающими данные каждый в свою сторону) к памяти (GDDR3/GDDR4). Чип будет доступен в двух вариантах: XL (частоты ядра/памяти 500/1000 МГц) и XT (625/1500 МГц). Семейство X1600 (157 млн. транзисторов) тоже состоит из двух модификаций: Pro (500/780 МГц) и XT (590/1380 МГц). Здесь пиксельных конвейеров двенадцать, а вершинных – пять. Для доступа к памяти использована такая же кольцевая схема, однако контроллеры 128-разрядные. Наконец, у младшей модели (тут уже никаких кольцевых шин) с четырьмя пиксельными и двумя вершинными конвейерами разновидностей целых три. Базовая (450/500 МГц), Pro (600/800 МГц) и HyperMemory (450/1000 МГц). Последняя несет лишь 32 Мбайт памяти на борту (зато на высокой частоте) и использует системную память, чтобы имитировать 128-Мбайт карту. Во всех новинках имеется программируемый процессор Avivo (очевидно, аналог nVidia PureVideo), отвечающий за декодирование MPEG-2, MPEG-4, DivX и других форматов, подавление шума и прочие функции видеообработки.
//-- Bluetooth-адаптеры DIGMA DBTU01/DBTU02 --// класс устройства: I/II
радиус действия: 100м/10м
цена: $20/18
В ассортименте компании DIGMA интересные новинки – Bluetooth-адаптеры, подключаемые к порту USB. Данные продукты позволяют организовать обмен файлами между различными устройствами, использовать беспроводные Bluetooth-мышки, синхронизировать мобильный телефон или КПК с компьютером, а также пользоваться Интернетом через сотовый телефон. Модель первого класса может «осилить» расстояние до ста метров, а второго класса – до десяти, что вполне достаточно для связи со всеми популярными мобильными устройствами. Оба продукта имеют спецификацию Bluetooth v1.2 и интерфейс USB v1.1. В комплект поставки входят диск с драйверами, ПО и руководство по их установке.
//-- MP3-плейер/фотоальбом Minox DMP-1 --// 2-дюймовый ЖК-экран с разрешением 128x160 со светодиодной подсветкой
512 Мбайт встроенной памяти
разъем SD/MMC для внешних носителей (до 1 Гбайт)
проигрыватель MP3 и WMA, MP3-рекордер, FM-тюнер
аудио: 20—20000 кГц, 2x4 мВт (наушники), 80 дБ SNR
цифровой эквалайзер
поддержка электронных книг (текст в Unicode или ASCII)
поддержка форматов JPG, BMP и LGO
интерфейс USB 2.0
габариты 75x52x15 мм
Это странное гибридное устройство может играть роль фотоальбома, цифрового аудиоплейера и электронной книги. Навигация по меню осуществляется при помощи джойстика, а часто использующиеся функции вызываются посредством расположенных вокруг него кнопок. Подзаряжается устройство по шине USB и в заряженном под завязку состоянии может функционировать до 12 часов. Кстати, картинками и музыкой способности DMP-1 не ограничиваются: можно еще играть в предустановленные игрушки. Не исключено, что со временем у устройства появятся и другие таланты, поскольку его микрокод обновляем.
//-- Проектор Panasonic PT-AE900E --// три ЖК-панели с разрешением 1280x720
поддержка формата 16:9
яркость 1100 ANSI лм
контрастность 5500:1
ресурс лампы 3 тысячи часов (экономичный режим)
потолочная или настольная установка, фронтальная или обратная проекция
входы DVI-D (HDMI), SCART, S-Video, компонентный, композитный
встроенный 2-Вт динамик
шум 27 дБ (экорежим)
10-разрядная обработка цвета и гамма-коррекция
диагональ изображения 1—5 м
габариты 335x104x270 мм
вес 3,6 кг
цена $2200
Проектор рекомендуется для использования в составе домашнего кинотеатра. Благодаря фирменной технологии Smooth Screen, межпиксельная сетка, часто раздражающая пользователей недорогих проекторов, здесь не будет проблемой. Проектор позволяет управлять сдвигом линз, для чего на лицевую панель вынесен специальный джойстик. Давид Бернстайн (один из ведущих художников по цвету Голливуда, по прозвищу «Золотой глаз») снова подзаработал на сотрудничестве с производителем. В комплект входит универсальный «обучаемый» пульт ДУ, позволяющий управлять DVD-плейерами, звуковыми системами и даже яркостью светового потока.
//-- Компьютер OQO model 01+ --// 1-ГГц процессор Transmeta Crusoe
30-Гбайт жесткий диск
512 Мбайт памяти
5-дюймовый экран с разрешением 800x480
3D-акселератор с 8 Мбайт памяти (выход VGA 1280x1024)
адаптер Wi-Fi, модуль Bluetooth
порты USB 2.0, FireWire (1394)
порт Ethernet 10/100
аудиовыход, встроенный микрофон и динамик
QWERTY-клавиатура с кнопками мыши
габариты 223x85x23 мм
вес 396 г
цена от $1500
Нечто среднее между ультрапортативным ноутбуком и карманным компьютером. Дизайн со времени предыдущей модели (без плюса) почти не изменился, лишь чуть подправлены внутренности. Компьютер работает под управлением Windows XP (производитель уверяет, что 01+ самый маленький КПК для этой системы). В качестве опций предлагаются VGA-адаптер, зарядное устройство и прочный анодированный металлический чемоданчик (все совместимо и с OQO model 01). В комплект входит цифровое перо.
//-- Сервер Mercury Dual Cell-Based Blade --// два процессора IBM Cell BE
память Rambus XDR (eXtreme Data Rate)
Ну вот, игры кончились… Теперь у процессора Cell появилось серьезное применение – блейд-серверы. Используется та же память, что и в PS3, – Rambus XDR, и те же самые 8-SPE чипы. В форм-факторе 7U, в который помещается семь серверов, производительность доходит до 2,8 Tфлопс, а в шестифутовой стойке – до 16 Tфлопс. Производиться серверы начнут не спеша: сначала, в первом квартале следующего года, фирма планирует выпускать пробные партии, а на массовые поставки рассчитывает выйти ко второму кварталу.
//-- Камера Creative PC-CAM 950 Slim --// 5-Мп 1/1,8-дюймоввый сенсор
объектив с фиксированным фокусным расстоянием 8,25 мм
4-кратный цифровой зум
фокусировка от 1,3 м до бесконечности
2-дюймовый ЖК-экран (технология LTPS)
разъем SecureDigital (карты до 1 Гбайт)
видео (режим web-камеры) 640x480 и 320x240
габариты 92x27x57 мм
цена $130
Трудно, конечно, порекомендовать не врагу эту новинку для использования в качестве нормальной карманной цифровой камеры (пусть и «мыльничного» типа), но если ей предстоит быть всего лишь веб-камерой, то куча возможностей будет притягательным довеском. Например, камеру можно напрямую подключать к телевизору для просмотра видео и фотографий, или к принтеру, совместимому с DirectPrint (ну почему, почему не PictBridge?! – конспирологически ориентированное сознание ясно видит тут тайный сговор). Предлагается PC-CAM 950 Slim в трех цветах – черном, серебристом и синем.
//-- ЖК-монитор FLATRON LCD M1940A --// время отклика 12 мс
яркость 400 кд/м2
контрастность 500:1
диагональ экрана 19 дюймов
разрешение 1280x1024
размер пиксела 0,294 мм
габариты 543x542x223 мм
вес 7,75 кг
цена $700
Новинка сочетает в себе монитор и телевизор. Кроме стандартных интерфейсов она имеет встроенный компонентный вход SCART, что дает возможность подключить к ней не только ПК, но и, например, DVD-проигрыватель. Экран окаймлен широкой бордовой рамкой, в которой спрятаны два 3-ваттных динамики. Округлая «под хром» подставка весьма массивна и потому очень надежно удерживает монитор. Углы наклона экрана от 0 до 45 градусов. Если понадобится, монитор можно закрепить на стене с помощью VESA-совместимого кронштейна. Блок питания встроенный. Часть интерфейсов, а именно 15 Pin D-Sub, DVI, SCART, антенный, питание, а также замок Kensington скрыты массивной декоративной крышкой, остальные интерфейсы: Audio-In/Out, Video, S-Video и гнездо для подключения наушников расположены на задней панели.
13-я КОМНАТА: Ячейка, она же клетка, она же… Cell
У читателя, ознакомившегося с материалами рубрики «Архитектура ХХ века» в прошлом номере, могло сложиться ощущение, что в процессоростроении все мыслимое и немыслимое давным-давно изобретено и придумать что-то более совершенное, нежели суперскалярный OoO-процессор, невозможно в принципе. Однако это не так.
Основных «альтернативных» современному мэйнстриму путей развития два: один очень старый, второй совсем новый. Широкого распространения они пока не получили, но, может, их время еще не пришло?
Вернемся на минутку в прошлое и вспомним главную идею, положенную в основу RISC: процессор должен быть устроен как можно проще – это и экономически выгоднее, и наращивать тактовую частоту и применять разные технологические трюки, кардинально увеличивающие производительность, легче.
//-- Very Long Instruction Word --//
Так может, повыкидывать из процессора все эти хитрые декодеры и планировщики и оставить только самое необходимое – исполнительные блоки, набор регистров, подсистему памяти и минимальный набор обслуживающей логики? Зачем, к примеру, заниматься хитроумным переименованием регистров, если этих самых регистров можно понаделать сотню-другую? И зачем отслеживать зависимости инструкций, если можно писать программы так, чтобы эти зависимости никогда не нарушались? Проще говоря, коли наш суперскалярный OoO-CPU все равно в конечном счете работает не с исходным программным кодом, а с неким внутренним его представлением – не лучше ли сразу записывать программы в этом представлении, обходясь без посредников? «В очередном такте исполнительному устройству X– загрузить из оперативной памяти по адресу из регистра такого-то данные и сохранить их в регистр такой-то; исполнительному устройству Y – взять данные из регистров такого-то и такого-то, сложить их и записать результат в регистр такой-то; устройству Z – проверить регистр такой-то на выполнение условия и по результатам проверки подкрутить внутренний указатель такой-то и сбросить при необходимости конвейер». Получится одна очень длинная инструкция (Very Long Instruction Word, VLIW), полностью и исчерпывающе описывающая, что каждому из блоков процессора следует в очередном такте делать.
К чему мы тогда придем? Получится архитектурно очень простой процессор, который будет очень трудно программировать: ведь придется детально учитывать его внутреннее устройство и особенности. Но если мы научимся это делать, то в качестве компенсации получим возможность изготовить сколь угодно навороченный CPU малой кровью – без всяких сверхсложных декодеров и планировщиков на три-четыре инструкции. К примеру, в отечественной разработке «Эльбрус Е2K» предполагалось одновременное исполнение до 24 инструкций за такт – при сохранении приемлемой сложность CPU. Реализовать что-либо подобное в классическом суперскалярном процессоре – нельзя; а при VLIW-подходе, не ограниченном жесткими рамками скоростного декодирования и планирования программы, – можно. Ведь никто же нам не запретит компилировать и оптимизировать программу хоть часами, хоть сутками – лишь бы потом она быстро исполнялась?
Единственная очевидная загвоздка в подобном подходе – тот самый компилятор, умеющий генерировать очень сложный технически и требующий тщательнейшей оптимизации машинный код для VLIW-процессоров. Но ведь, в конце концов, и простые компиляторы с языков высокого уровня когда-то казались чудом, а сейчас мы преспокойно используем сложнейшие компиляторы C++, работающие с парадигмами обобщенного программирования. Так что создание совершенного оптимизирующего компилятора для VLIW-процессоров – это, скорее, вопрос времени[Отрадно, кстати, сознавать, что над созданием этих «суперкомпиляторов», в первую очередь – Intel C/C++ Compiler, активно работают наши соотечественники – например, Нижегородская лаборатория (бывшая московская команда Бориса Бабаяна, разрабатывавшая компиляторы для «Эльбруса Е2К»). Нам бы, правда, к этому еще и свои процессоры с компиляторами…]. Но есть и другие проблемы.
Проблема первая – жесткая привязка исполняемого кода к конкретному процессору. x86-программа запросто может работать и на i386, и на Pentium 4; с каноническим VLIW-процессором такой фокус, увы, не пройдет. Правда, Intel в усовершенствованной версии VLIW-архитектуры (EPIC – Explicitly Parallel Instruction Computer, компьютер с явно заданным параллелизмом команд) смягчила этот недостаток, введя не инструкции, а bundles – эдакие «полуинструкции», упакованные в контейнере с информацией о взаимозависимостях между этим и другими бандлами. Предполагается, что процессор, без труда проверив бандлы на взаимозависимость, может запускать их параллельно и, таким образом, обладать некоторой «свободой действий» в проектировании будущих CPU, сохраняющих бинарную совместимость с текущим поколением.
Вторая проблема прямо вытекает из первой: довольно трудно сделать совместимые VLIW-процессоры, предназначенные для разных секторов рынка. Уж больно сильно привязан программный код к аппаратной начинке. То есть если мы делаем «супер-VLIW», с кучей исполнительных устройств и тщательно вылизанной подсистемой памяти – то ровно такой же «суперпроцессор» (с суперсебестоимостью) нам придется продавать и для low-end-сектора рынка. И наоборот, «сэкономив» и выкатив процессор для low-end и middle-end, мы получим крепкого середнячка, но не лидера производительности. Подход EPIC с его бандлами слегка исправляет ситуацию, но не до конца – дешевых Itanium в природе так и не появилось.
Третий и, пожалуй, главный недостаток VLIW – это то, что предусмотреть и спланировать все события в процессоре невозможно. К примеру, нельзя предугадать, сколько времени займет операция обращения к оперативной памяти. А раз так, то нельзя и эффективно запланировать ее: OoO-исполнения во VLIW-процессорах не бывает, и если мы думали, что данные для инструкции в кэше будут, а их там не оказалось, то весь этот сложный, «мышцастый» процессор будет простаивать десятки и сотни тактов, дожидаясь исполнения злополучной инструкции загрузки данных. В EPIC придуман способ борьбы и с этой проблемой – программную предвыборку данных, software prefetch[Это такие специальные инструкции, которые позволяют процессору параллельно с основным исполнением запросить фоновую подгрузку в кэш-память определенных данных, если их там еще нет.]; однако подсистема памяти до сих пор остается одним из самых узких мест любого VLIW-процессора.
//-- Intel Itanium и Transmeta Crusoe --//
Идея VLIW отнюдь не нова – еще в середине 80-х годов корпорация Intel пыталась продвигать весьма неординарный VLIW-процессор i860. Однако описанные проблемы и отсутствие по-настоящему эффективных оптимизирующих компиляторов поставили крест на i860 еще до его практического рождения. Да, i860 был «суперкомпьютером на чипе», да, он опережал свое время, но как процессор общего назначения – никуда не годился[Теоретический максимум производительности – 60 Мфлопс. Практический максимум для программистов, вручную оптимизировавших код для i860 на ассемблере, – 40 Мфлопс. Производительность обычного компилятора для i860 – не более 10 Мфлопс. Производительность рабочих станций на первом коммерческом MIPS R3000 – 9 Мфлопс; на первом Intel Pentium – 15—40 Мфлопс.]. Для него требовались специальные сложные компиляторы и новая инфраструктура – и все лишь ради того, чтобы в конце концов получить производительность, в большинстве случаев уступающую производительности стремительно развивавшихся RISC-конкурентов! i860 мог быть очень быстрым процессором для вычислений с плавающей точкой – но между «мог» и «был» в большинстве приложений зияла огромная пропасть, которую было проще преодолеть, положившись на технический прогресс, благодаря которому даже безнадежно «тормознутая» в те годы архитектура x86 через несколько лет достигла такого же уровня производительности. Некоторое время Intel 80860 использовался в качестве специализированного программируемого DSP-процессора (графического ускорителя), но заметного распространения даже в такой ипостаси не получил.
Впрочем, полный провал i860 не помешал корпорациям Intel и Hewlett-Packard уже через два года инициировать разработку «суперпроцессора» Itanium, который должен был исправить ошибки 860-го процессора и стать заменой не только архитектуре x86, но и всем тогдашним RISC-архитектурам. Архитектура получила звучное название IA-64 (Intel Architecture for 64-bit), и поначалу казалось, что «пересадят» пользователей на Itanium едва ли не начиная с Pentium II. Itanium должен был с помощью специального полуаппаратного эмулятора поддерживать набор инструкций x86, так что переход с архитектуры IA-32 на IA-64 обещал быть безболезненным. «Крутизна» новинки была так очевидна, что Silicon Graphics, например, даже забросила разработку своей фирменной архитектуры MIPS, рассудив, что с Itanium ей все равно не сравниться.
Но если отбросить красивые слова и посмотреть, что получилось на практике, то следует признать, что проект Itanium «блестяще провалился». Вначале очень долго задерживался первый Itanium (Merced). Потом некстати вылезла со своими процессорами AMD и вынудила Intel ввязаться в «гонку мегагерц», по итогам которой «устаревшая» архитектура x86 сделала такой колоссальный рывок, что однозначного «суперпроцессора» из со скрипом появившегося на свет Itanium уже не получилось. Затем была проведена большая «работа над ошибками», в ходе которой производительность и «производственные» технические характеристики Itanium 2 значительно улучшились, так что «итаниумное» семейство с трудом, но все же завоевало лидерство в производительности (особенно при вычислениях с плавающей точкой, критичных для научных расчетов). Но принципиально это ситуацию не изменило. Перспективы для иного, кроме как High-End-применения, у Itanium сегодня печальные – фактически AMD убила его развитие своими 64-разрядными процессорами. Да, старшие модели 64-разрядных Opteron в среднем проигрывают старшим Itanium 2 по производительности; однако проигрыш этот невелик и компенсируется тем, что «Оптероны» гораздо дешевле и не требуют специальной адаптации уже имеющихся программ к IA-64. В итоге получилось так, что Intel, конечно, предпочла бы использовать свою архитектуру IA-64 вместо чужой архитектуры AMD64, однако выбирая между быстрой потерей большей части серверного рынка, занятого сегодня процессорами Xeon, и утратой надежды на то, что Xeon в обозримом будущем будет заменен на Itanium, Intel выбрала первый вариант. А после введения в «Зионах» технологии EM64T (копии AMD64) от развития собственных Itanium-систем отказалась большая часть поставщиков серверов, начиная с IBM и заканчивая Dell. Даже соразработчик Itanium компания Hewlett-Packard (как и SGI, которая ради IA-64 поставила крест на своей процессорной архитектуре PA-RISC) потихоньку сворачивает линейку продуктов на основе этих CPU. Так что злая ирония про «Itanic» (по аналогии с «Titanic») сегодня, к сожалению, уместна как никогда.
Кроме Intel попытку внедрить VLIW-архитектуру в повседневную жизнь предпринимала со своими x86-совместимыми процессорами небезызвестная Transmeta. У команды, в которой работал сам Линус Торвальдс, не было претензий на «новую сверхархитектуру», но процессоры они создали не менее интересные. Transmeta не стала проталкивать свой VLIW как индустриальный стандарт, а сосредоточилась на разработке специального софта, полностью имитирующего (программно!) на VLIW-процессоре обычную архитектуру x86. Производительностью такое решение не отличалось, но зато было простым (ибо VLIW архитектурно проще), дешевым (ибо простым) и потребляющим совсем немного энергии (в силу все той же простоты), что позволило Transmeta вполне успешно позиционировать свои CPU в нишу недорогих мобильных процессоров и даже процессоров для блейд-серверов. К сожалению, производственные трудности и появление технологии Centrino, которая свела конкуренцию на мобильном рынке почти к нулю, привели к тому, что Transmeta терпела огромные убытки. Так что судьба двух доступных пока VLIW-архитектур – Intel Itanium 2 и Transmeta Efficeon – очень похожа. Обе оказались вытеснены в узкоспециализированные ниши: Itanium 2 – в высокопроизводительную; Efficeon – в экономичную.
//-- Концепция Cell --//
Итак, VLIW/EPIC на роль процессора завтрашнего дня пока не годится – те потенциальные преимущества, которыми она обладает, сегодня не оправдываются. Но существенные изменения в грядущих процессорах мы все-таки увидим.
Хотим мы того или нет, работать нам придется с многоядерными процессорами. Как уже говорилось, разработка нового процессорного ядра – дело весьма долгое даже при наличии опытной команды и чертежей предыдущей версии изделия; совершенствование технологических процессов, позволяющих уместить на одном кусочке кремния все больше транзисторов, происходит гораздо быстрее. Раньше это выливалось во все более «кэшастые» варианты одних и тех же архитектур и во все более «прямолинейные» варианты их разводки (пожертвовав площадью кристалла и увеличив его размеры, разводку можно сделать «более высокочастотной»); теперь же стало выгоднее просто устанавливать два-три-четыре одинаковых или почти одинаковых ядра в один кристалл или на одну подложку.
Но коль уж все равно нам светит повальный переход на параллельные алгоритмы (а параллельное программирование нетривиальных алгоритмов по праву считается одной из самых сложных современных задач), то имеет смысл уже сегодня заняться разработкой перспективных параллельных архитектур на основе принципиально новых концепций. Именно такой подход в лице процессора Cell (совместное детище Sony, Toshiba и IBM), возможно, и определит облик завтрашнего дня компьютинга.
По меркам же дня сегодняшнего Cell вызывает интерес своей необычностью и потрясающей футуристичностью: девять ядер, из которых одно главное, а восемь – вспомогательные; сумасшедшей пропускной способности интерфейсы и оперативная память Rambus; тактовая частота под три гигагерца. Но новизна процессора не в этом (вернее, не только в этом). Cell – это еще и попытка значительно пересмотреть существующие парадигмы программирования.
Cell в переводе на русский – ячейка. В концепции Cell существуют аппаратные и программные ячейки. Аппаратная ячейка – любой процессор, способный выполнять программные ячейки и связанный с другими процессорами. Программная ячейка – это данные, либо особая программа (apulet), описывающая, как следует обрабатывать данные. В идеале нет никаких самостоятельно существующих программ, нет процессоров и компьютеров. Есть только данные, код, который их обрабатывает, и абстрактная аппаратура, обеспечивающая существование того и другого. Не поняли? Смотрите: пусть у нас есть, например, передаваемый по Сети видеопоток.
Что такое видеопоток? На программном уровне это последовательность фреймов – небольших блоков данных, описывающих маленький кусочек (скажем, 0,1 с) видео или звуковой дорожки. В терминах Cell – поток ячеек, содержащих данные разного типа. Его воспроизведение можно представить как результат выполнения некоторой большой программы, с исходными данными в виде этого потока, а можно – как процесс многократного преобразования ячеек с данными, в ходе которого ячейки одного типа (например, сжатый звук) превращаются в ячейки другого типа (несжатый звук) маленькими программками (апулетами). Обычно все эти превращения запрятаны глубоко в некую всеобъемлющую программу, которая копирует поступающие данные в оперативную память, поочередно обрабатывает их разными алгоритмами и старается распределить обработку по нескольким процессорам. Идея Cell состоит в том, что вместо этой программно-ориентированной модели мы берем более естественную, ориентированную на данные модель декодирования видеопотока и сводим написание видеопроигрывателя к написанию инструкций типа «чтобы воспроизвести видеотрансляцию, нужно подключиться по такому-то адресу в Сети к источнику ячеек, преобразовать поступающий поток в поток ячеек со сжатым видео и сжатым звуком, преобразовать сжатый звук в несжатый, сжатое видео в несжатое, обработать несжатый звук эквалайзером и эффект-процессором, а к несжатому видео применить деинтерлейсинг, подогнать получившуюся картинку к размерам экрана, скорректировать яркость, насыщенность и контрастность и воспроизвести получившиеся аудио– и видеопотоки». Вот это и есть программа для Cell! В ней даже нет инструкций, указывающих, как делать все вышеописанное, – за «подробностями» Cell-устройство обращается к библиотеке алгоритмов, причем каждый алгоритм (апулет) – это тоже ячейка, которую, к примеру, можно на лету скачать из Сети с того же самого источника видеотрансляции. А какое железо и какая операционная система обеспечивает этот процесс с точки зрения Cell-программиста (фактически автора алгоритмов и описаний, подобных вышеприведенному), пользователя и главных действующих лиц – данных и апулетов, – совершенно неважно.
Какую выгоду мы имеем при такой организации? Во-первых, все написанные таким образом Cell-программы параллельны по самой своей сути. Мало того что мы разбиваем исполнение программы на несколько явно независящих друг от друга стадий, которые можно исполнять «в параллель». У нас же целая цепочка ячеек-данных, требующих обработки и в подавляющем большинстве случаев все эти ячейки друг от друга совершенно независимы – а значит, мы можем «превращать» по одному и тому же алгоритму несколько ячеек одновременно. Таким образом, в Cell удается загрузить работой не просто десятки – а сотни и даже тысячи «элементарных процессоров» (Synergetic Processing Element, SPE), причем задействовать для запущенной на одном процессоре задачи SPE всех процессоров данного устройства и даже совершенно прозрачным образом привлечь к ней же SPE других устройств! Представьте, что игровая приставка, домашний компьютер, телевизор, холодильник и КПК совместно работают над, скажем, запущенной пользователем задачей рендеринга трехмерной сцены, причем делают это совершенно прозрачным и незаметным для вас способом – и вы поймете всю прелесть подобной организации! А самое замечательное, что вся эта красота не стоила ни малейших усилий. Нам не требовалось размышлять над кластеризацией, пересылкой данных, блокировками, потоками и прочими «прелестями» параллельного программирования, превращающего жизнь программиста в кошмар: мы написали только «интересную» и «содержательную» часть кода, собственно «алгоритмику» задачи, переложив всю рутину на автоматику и, возможно, прозрачным образом задействовав для решения своих задач произвольное количество чужого кода[Скажем, если в трансляции видеопоток сжат нашим «фирменным» кодеком, а звук – обычным стандартным, то потребуется обеспечить лишь «свою» часть по видеодекодированию, а все остальное – декодирование звука, набор «улучшалок» для картинки и т. п. – Cell-устройство возьмет стандартное или ранее загруженное пользователем.].
Возможности для применения Cell-сети необъятны. По сути дела, это некий единый «живой организм», который «растет» (регистрирует в сети новые устройства) или «уменьшается»; который обладает «знаниями» (апулетами) и «живет» в глобальном мире – всемирной Сети, «питаясь» разнообразными данными и «перерабатывая» их. У этого «организма» есть «глаза» (веб-камеры), «уши» (микрофоны), «органы чувств» (клавиатура, мышь, джойстик), «средства коммуникации с внешним миром» (монитор, телевизор, колонки); которые физически могут принадлежать совершенно разным устройствам, но в действительности – одному Cell’у.
Добавление новых устройств в Cell-сеть, как правило, не изменяет ее функциональности (разве что добавляет новые «органы чувств», «средства отображения» и повышает быстродействие) – даже в самом простом варианте Cell универсальна.
Как это все реализовано в железе? В статье о приставках следующего поколения[«Три тополя на Плющихе»] я подробно описывал аппаратную составляющую одного из первых Cell-устройств – PlayStation 3, и его «сердце» – процессор Cell[Вообще-то он называется Broadband Processor, но это название как-то не прижилось], так что еще раз восхищаться сверхсовременными решениями вроде Rambus-памяти и интерконнекта FlexIO, пожалуй, не будем. Лучше посмотрим, откуда эта своеобразная «несимметричная девятиядерная архитектура» взялась.
Напомню, что в процессоре Cell девять ядер – одно главное и восемь вспомогательных. Но если посмотреть на это с точки зрения концепции Cell, то вспомогательным на самом деле является главное процессорное ядро – PPE (The Power Processing Element). На нем работает операционная система сети Cell, обеспечивающая прозрачное объединение нескольких устройств в сеть; выполнение программ – выборку данных и их распределение вместе с необходимыми апулетами по собственно вычисляющим элементам; взаимодействие с пользователем, работу драйверов устройств… в общем, все то, что мы тремя абзацами выше отнесли к рутине. А самое интересное происходит в маленьких ядрышках процессора Cell – модулях SPE. Фактически каждый такой Synergetic Processing Element – это крошечный самостоятельный компьютер (со своим процессором и своей оперативной памятью), который занимается одним-единственным делом: конвертирует поступающие к нему ячейки-данные согласно заложенному в него алгоритму. То есть физически воплощает в жизнь алгоритм, заложенный нами в одну ячейку-апулет, над ячейками-данными. Все, чем занимается PPE, в сущности, сводится к одному действию: взять данные, требующие обработки, поместить их в память SPE, запустить «процесс превращения» данных в другие данные и куда-нибудь передать полученный результат. Именно поэтому SPE очень много, а блок PPE – один; и именно поэтому у каждого SPE есть своя персональная «локальная» память и нет выхода на «глобальную» (она им попросту не нужна); именно поэтому SPE связаны очень быстрыми шинами и могут передавать данные друг другу напрямую, выстраивая те самые цепочки обработки данных, которые в обычном процессоре являются чистейшей воды абстракцией.
Кстати, использовать для создания Cell-устройств, способных стать частью Cell-сети, описанный процессор вовсе не обязательно. Концептуально от устройства требуется только одно: уметь интегрироваться в сеть (то есть содержать процессор, работающий под управлением соответствующих программ) и уметь выполнять над ячейками-данными ячейки-апулеты (например, содержать хотя бы один SPE). Вполне можно представить, что после «суперпроцессора» Cell появятся более простые варианты с меньшим (или наоборот, большим) числом SPE или даже совсем простые и дешевые мини-процессоры (использующие один SPE и более простой PPE, причем PPE может быть даже не PowerPC-процессором), которые можно будет за сущие гроши устанавливать в любую бытовую технику. С помощью Cell можно одинаково эффективно реализовывать и суперкомпьютеры[Уже представлены блейд-серверы из нескольких Cell-процессоров], и «цифровой дом».
Правда, настанет все это счастье, увы, нескоро – на создание принципиально новых операционных систем (основы Cell), стандартных Cell-библиотек, компиляторов и сред разработки, на перенос имеющегося программного обеспечения и, наконец, на самую обыкновенную перестройку мышления программистов уйдут в лучшем случае годы.
Доживем ли мы до «умных» сетей и распределенных «повсеместных» вычислений, столь же прозрачных, привычных и незаметных, как современные электросети? Годика через три увидим.
ТЕХНОЛОГИИ: Новая надежда
Выхода графического ускорителя нового поколения от ATI, известного под кодовым названием R520, ожидали долго. Даже, пожалуй, слишком долго: мы искали его на Computex, мы надеялись увидеть его в июле, когда nVidia начала продавать видеокарты GeForce 7800GTX, затем в сентябре, когда, казалось, ждать дальше уже было некуда.
Но прошли уже все мыслимые сроки, а R520 все не было.
Тестовая система:
Материнская плата: ASUS A8N SLI Deluxe. Оперативная память: Corsair DDR CMX512-3200XLPRO, 2x512 Мбайт, 2-2-2-10. Видеокарта: nVidia 7800GTX 256 Мбайт, ATI X1800XT 512 Мбайт. Операционная система: Microsoft Windows XP SP2. Драйверы: последние официальные на момент написания статьи. Все настройки системы оставлялись по умолчанию, процессоры функционировали на своих номинальных частотах: Athlon 64 FX-57 2,8 ГГц – множитель 14, шина 200 МГц, память в синхронном режиме с таймингами 2-2-2-10
Вот и получилось, что ситуация на рынке сегодня далеко не в пользу канадцев. Уверенно лидируя в «дешевых» и «интегрированных» нишах, солидных по оборотам, но, увы, не приносящих по-настоящему большой прибыли, самые «вкусные», высокопроизводительные сегменты еще недавно доминировавшая здесь ATI утратила. В результате – провальный квартал и 104 млн. долларов убытков.
Почему так вышло? Думаю, отчасти виноват новый, прогрессивный 90-нм low-k технологический процесс, освоение которого на заводах TSMC, производящей GPU по заказам aTI, вероятно, проходило далеко не так гладко, как рапортуют теперь маркетологи[Все мы помним, что первая итерация 90-нм процессоров Intel получилась «слишком горячей» (большие токи утечки вносили ощутимый вклад в тепловыделение ранних степпингов Prescott), а у aMD – «слишком медленной». Да и nVidia, тоже размещающая заказы на заводах TSMC, предпочла изготавливать свой новый GPU G70 по «старому, дорогому и медленному», зато проверенному 110-нм техпроцессу]. Отчасти – «погоня за двумя зайцами», то есть одновременная разработка и запуск в серию двух совершенно разных продуктов: основанного на унифицированной шейдерной архитектуре процессора R500[На нем построена приставка Xbox 360, выпуск которой намечен на ноябрь], который невозможно использовать в обычных видеокартах; и нашего сегодняшнего героя R520, построенного по «классической», но сильно переработанной архитектуре. Вдобавок чип получился по-настоящему новым и революционным (после едва ли не трех лет постепенной эволюции удачной линейки Radeon 9xxx), так что его проектирование и доводка наверняка отличались особенной сложностью, и сколько ушло итераций на то, чтобы отловить все ошибки, – знают только инженеры aTI.
Впрочем, довольно толочь воду в ступе. В конце концов, пусть и с полугодовым опозданием, но R520 – перед нами, и в ближайшее время видеокарты на его основе появятся в розничной продаже.
//-- Технические характеристики новинки --// Итак, что же удалось сделать ATI? Я бы сказал, невероятно многое. Словно все три года, пока регулярно выходили превосходные видеокарты, полученные экстенсивным расширением старой технологии, инженеры откладывали все по-настоящему интересные задумки в долгий ящик, чтобы потом реализовать их скопом.
Во-первых, радикально переработано сердце любого графического ускорителя – блок пиксельных процессоров, отвечающий за закраску сцены по заданным алгоритмам. Традиционно в этом блоке ставится энное количество одинаковых пиксельных конвейеров, каждый из которых «в параллель» с остальными вычисляет цвет отдельно взятого пиксела (или субпиксела) в нашей сцене[Строго говоря, одиночные конвейеры сейчас уже никто не использует, поскольку гораздо эффективнее собирать их в группы по четыре штуки (процессоры квадов), чтобы они обрабатывали не отдельные пикселы, а блоки 2x2 пиксела (квады). При этом часть логики удается объединить, проводя некоторые операции не над отдельными пикселами, а над квадами целом – это и быстрее и проще]. То есть, единожды попав на какой-нибудь конвейер, пиксел, обрабатываемый соответствующей ему программой – пиксельным шейдером, раз за разом проходит по этому конвейеру, как бы крутится внутри него до тех пор, пока не закончится вычисление его цвета. Соответственно все устройства, и, в частности, текстурные модули, выбирающие из видеопамяти необходимые для этих вычислений данные, напрямую подключены к исполнительным устройствам конвейера. Схема достаточно простая и эффективная: нужно увеличить вычислительную мощность графического процессора – ставим больше конвейеров, и количество обрабатываемых за такт пикселов, а вместе тем и скорость закраски изображения пропорционально возрастет.
Инженеры aTI пошли другим, «процессорным» путем,[Подробнее см. «КТ» #609 (рубрика 'Архитектура ХХ века")] не став дублировать конвейеры, а организовав из GPU своеобразный суперскалярный процессор с единым конвейером, на котором несколько пикселов могут обрабатываться одновременно. Вместо того чтобы «распихать» пикселы по разным конвейерам, R520 накапливает их (вместе с соответствующими шейдерными инструкциями) в специальном огромном планировщике, который aTI называет Ultra-Threading Dispatch Processor. Почему Ultra? Да потому, что этот планировщик управляет одновременным выполнением колоссального числа операций (512 квадов 2x2 пиксела в High-End, и более скромные 128 квадов – в менее дорогих Middle-End и Low-End графических чипах). Все квады хранятся в длиннющих очередях, и по мере того, как освобождаются вычислительные ресурсы, отправляются на соответствующее устройство, будь то вычислительный, текстурный блок или блок графического Back-end’а (запись результатов во фрейм-буфер, блендинг, z-тест, антиалиасинг и пр.). Это более сложный подход, чем несколько однотипных конвейров, но и более гибкий и эффективный. Например, мы можем сколь угодно гибко варьировать соотношение количества вычислительных и текстурных модулей, так как они больше не подключаются друг к другу, образуя единое целое, а разделены по операциям, которые они выполняют[Подобную оптимизацию можно будет увидеть в ядре R530 – сердце Middle-End ускорителя Radeon X1600. В нем будет три процессора квадов (3x4 = 12 пиксельных конвейера), но всего один процессор текстур (1x4 = 4 TMU). Для современных шейдеров, которые больше занимаются вычислениями, нежели выборкой данных из оперативной памяти, такой подход оправдан, поскольку позволяет рациональнее расходовать площадь кристалла, увеличив число пиксельных конвейеров за счет сокращения числа TMU]. Речь идет о текстурных операциях, которые ранее могли блокировать конвейер до тех пор, пока не будет завершена операция выборки очередного тексела[Традиционный конвейер GPU устроен гораздо проще конвейера CPU, так что переупорядочивания инструкций, которое позволило бы обогнать застрявшую в конвейере инструкцию другой, не зависящей от нее, – в графических процессорах нет].
Заодно решается и проблема динамических условных переходов в шейдерах. Что это такое? Сейчас объясню: ради все того же упрощения пиксельных конвейеров, которых нужно уместить побольше на ограниченный кусочек кремния, эти конвейеры устраивают таким образом, что они вначале как бы настраиваются на ту или иную конкретную операцию над пикселами (сложение, вычитание, умножение) и затем применяют ее много раз подряд к разным пикселам; после чего перестраиваются на следующую операцию и снова применяют ее много раз к тем же пикселам, и т. д. Поскольку один и тот же шейдер обычно требуется применить к умопомрачительному количеству пикселов, такая схема обычно работает замечательно. Однако если встречается шейдер, в котором есть динамические условные переходы (которые нельзя заранее предсказать), то может оказаться так, что для одной части пикселов, «бегающих по кругу» в конвейере, какую-то операцию применять нужно, а для другой – нет. И это столь серьезная проблема, что графические чипы ATI долгое время не поддерживали динамические переходы (а значит, и Shader Model 2.0a и 3.0).
Правда, решение nVidia очень уж красивым тоже не назовешь: в ее варианте «глупый» конвейер по кругу обрабатывает все пиксели, но в решающий момент над некоторыми из них производит операцию, а некоторые – игнорирует[Похожий способ исполнения условных переходов можно встретить в процессорах ARM]. ATI нашла гораздо лучший выход: поскольку вместо нескольких «глупых» и простых конвейеров у нее лишь один, но «умный» и сложный, то не требующие обработки пиксельные квады до исполнительных устройств просто-напросто не добираются, уступая место тем квадам, с которыми действительно нужно что-то делать. В результате конвейер хоть и исполняет по-прежнему одну и ту же операцию над разными пикселами, неторопливо перестраиваясь с одной на другую, но делает это не в пример интеллектуальнее и не разбазаривает попусту свои ресурсы. А заодно семейство Radeon X1000 получает практически «бесплатную» поддержку шейдеров третьей версии. Честно говоря, столь блестящему решению, убивающему разом целую стаю зайцев, можно только позавидовать! Это еще не унифицированная шейдерная архитектура, где единый конвейер (а вернее, набор из таковых) может обрабатывать любые шейдеры – как пиксельные, так и вершинные, но то, что полшага в ее сторону сделано, – несомненно.
Вторая группа изменений коснулась оптимизации графического процессора для работы на больших и очень больших тактовых частотах. Например, архитектура подсистемы памяти была полностью переделана для поддержки казавшейся невероятно быстрой видеопамяти – 1500 МГц GDDR3[И ведь это еще не предел – ходят вполне правдоподобные слухи, что R520 поддерживает не вышедшую пока в свет графическую оперативную память следующего поколения, GDDR4]. Вместо традиционной схемы с множеством текстурных модулей (TMU), централизованно подключавшихся к единому контроллеру оперативной памяти, который, в свою очередь, по широким шинам запрашивал данные из памяти и возвращал ответ по тем же каналам связи, по которым пришел запрос, ATI изобрела принципиально новую, кольцевую внутреннюю шину видеопамяти, «размазывающую» контроллер памяти едва ли не по всему графическому процессору. Идея в том, что вместо одного большого и сложного контроллера мы делаем до восьми маленьких контроллеров, каждый из которых контролирует только свой относительно небольшой кусочек видеопамяти. Причем он расположен в кристалле так, чтобы сравнительно узкую (32-разрядную) шину видеопамяти от него было удобнее разводить на печатной плате и тем самым сводить к минимуму помехи, обычно возникающие из-за несовершенства разводки. Вдобавок, небольшим контроллерам требуются небольшие же кэши данных, что позволяет отказаться от традиционных упрощенных и имеющих ряд недостатков кэшей прямого отображения и наборно-ассоциативных кэшей в пользу более сложных, но лишенных этого недостатка полностью ассоциативных кэшей.
Маленькие контроллеры (точнее, интерфейсы для подключения модулей памяти) объединяются очень быстрой внутренней двунаправленной кольцевой шиной (шириной 256 линий в каждом направлении для моделей с 256-разрядной основной шиной памяти и 128 линий – для более дешевых). На кольце имеется четыре «остановки» – точки подключения к внешних устройств. Например, для топовых R520 к каждой такой «остановке» подключено по два модуля памяти (шина памяти 2x32 разряда) и какая-то часть внутренних устройств процессора, расположенных поблизости. Каких? А неважно: какие было удобно подключить именно в этом месте, такие и подключили. Кроме того, по специальным простым управляющим шинам (по которым передаются только инструкции) каждая такая «остановка» подключена к «диспетчеру» – тому самому централизованному контроллеру памяти, который не занимается доставкой данных к исполнительным устройствам, а только «отдает распоряжения» и «присматривает» за тем, чтобы нужные данные прочитал нужный маленький контроллер и отправил их по кольцу до нужной «остановки», где их сможет снять само исполнительное устройство.
В результате мы не просто добиваемся более эффективного подключения внешних модулей памяти к кристаллу – мы устраняем хорошо знакомую системным администратором проблему «звездной» топологии, когда к центральному элементу системы – контроллеру памяти (а у сетевиков – к свитчу) сходится во-о-от такой пучок проводов, работать с которым очень неудобно. Теперь у нас есть одна простая и быстрая кольцевая шина, и устройства подключены к ней «распределенно», по маленьким, коротким и простым в разводке проводникам. А где простота – там и высокие тактовые частоты. Красиво, правда? А если добавить, что упростившийся контроллер памяти в R520 стал программируемым и его можно на лету программировать так, чтобы он обеспечивал наиболее эффективное распределение данных в видеопамяти для конкретной игрушки… В общем, перед нами еще одно изящное решение из разряда «одним махом семерых побивахом».
//-- *** --// Третья группа усовершенствований в R520 – это «доводка» ранее существовавших элементов. Например, этот графический процессор хранит в своих кэшах сжатые данные, сжимая и разжимая их на лету. Обычно подобный подход применяется только для хранения данных в видеопамяти (поскольку позволяет записать намного больший объем информации), а в R520 разработчики ухитрились применить тот же принцип и для самих кэшей, что почти равнозначно увеличению их объема. До восьми штук доведено число вершинных процессоров. Значительно улучшены вычислительные устройства блока пиксельных шейдеров – в них вдвое увеличено число собственно «вычислялок», поэтому за один такт это устройство способно выполнять до пяти разных операций над пикселом (две векторные над 3-векторами, две скалярные и одну операцию условного перехода). Таким образом, ATI почти догнала по этому показателю nVidia, которая использует в одном пиксельном процессоре G70 один векторный (но умеющий выполнять две разные операции одновременно) и один скалярный ALU. Правда, у nVidia векторные ALU работают с векторами длины 4, а у ATI – только с 3-векторами, и если приходится вычислять четвертую компоненту, то приходится задействовать и скалярное ALU, однако в целом заметной разницы в играх между подходами обеих компаний быть не должно.
Еще сюда можно отнести улучшенную поддержку чисел с плавающей точкой, в частности – полноценную поддержку фрейм-буфера в плавающем формате (включая возможность антиалиасинга). Для чего это нужно? Экспоненциальное представление цвета более естественно для человеческого глаза и позволяет легко и качественно реализовывать сцены с очень большой контрастностью (HDR, High Dynamic Range), довольно часто возникающие в играх и реальной жизни (например, когда мы смотрим из темноты на свет, который освещает лишь небольшую часть помещения)
Четвертая группа усовершенствований – «косметические» мелочи, в основном влияющие на разные «красивости». Поддержка некогда фирменного 30-битного (против обычного 24-битного) цвета Matrox, поддержка Adaptive Antialiasing – аналога Transparency SuperSampling в видеокартах nVidia9, поддержка более качественной, хотя и довольно медленной анизотропии. Аппаратное ускорение воспроизведения большинства распространенных современных видеокодеков, включая MPEG-2, WMV и H.264, позволяющее без проблем воспроизводить то, что мы называем High Definition Video (как Blu-ray, так и HD-DVD). Специальный аппаратный блок AVIVO, обеспечивающий качественную аппаратную обработку видеосигнала (10-битный цвет, гамма-коррекция, цветокоррекция, масштабирование, деинтерлейсинг); причем для кодирования TV-сигнала используется высококлассный кодер Xilleon, поддерживающий HDTV (а через переходник можно и HDMI организовать). Усовершенствованные блоки DVI и традиционная полноценная поддержка двух мониторов. В общем, грех на что-либо жаловаться.
Наконец, последняя, пятая группа усовершенствований – это чисто технологические новинки. В первую очередь, конечно же, новый технологический процесс 90-нм low-k, позволивший разместить 320 млн. транзисторов (да-да, детище ATI с шестнадцатью конвейерами переплюнуло по сложности даже nVidia G70 с его двадцатью четырьмя конвейерами!) на чуть меньшей, чем у конкурента, площади ядра и сыгравший свою роль в увеличении тактовой частоты R520. Тут все очевидно и особых комментариев, думаю, не требует
//-- Практика --// 5 октября была анонсирована целая линейка графических ускорителей, основывающихся на новой архитектуре. Их характеристики приведены в таблице.
Как видим, графические ускорители одного вроде бы семейства радикальнейшим образом отличаются друг от друга. Особенно выделяется R520 (Radeon X1800) – он просто наголову превосходит ближайшего «конкурента» новой линейки, словно это два абсолютно разных процессора! Вот она, гибкость новой архитектуры: как захотели – так и сделали. И сверхнавороченный, и скромный процессор – на основе одних и тех же подходов. Впечатляют и тактовые частоты, не опускающиеся ниже 450 МГц у ядра (у GeForce 7800 GTX, для сравнения, «всего» 430 МГц, пусть и гораздо более «полновесных», чем мегагерцы какого-нибудь X1600 XT), и оперативной памяти (1,4—1,5 ГГц – не шутки!). Правда, доступно все это великолепие будет далеко не сразу – с «высокочастотными» карточками придется подождать до ноября-декабря (да и X1800 XL на момент написания статьи в московской рознице еще не встречалась). Однако стараниями нашего замечательного редактора Х, в неравном бою отбившего нам на тестирование топовую карточку нового семейства Radeon X1800 XT, краткое «превью» новой быстродействия архитектуры мы можем сделать уже сейчас.
Что можно сказать про референсную карточку? Из-за внушительной двухслотовой системы охлаждения и солидной длины (как у 7800GTX и двухпроцессорных видеокарт) Radeon X1800 XT встанет не в каждый корпус и будет мешать установке других карт расширения. Но шумит он, как ни странно, довольно слабо, большую часть времени работая на пониженных оборотах (хотя и сильно греясь при этом). Дизайн платы совершенно нетипичный для ATI и больше всего напоминает… продукт nVidia – с расположением чипов памяти вокруг GPU и вынесенной на край мощной схемой питания (из-за которой плата и получилась такой длинной). Карточки младших семейств будут, естественно, скромнее по размерам и обладать уже однослотовой системой расширения.
Скорость… результаты тестов говорят сами за себя: в тяжелых режимах с включенным антиалисингом и высоким разрешением в новейших играх (а для чего еще покупать такую видеокарту, как не для игры с максимальным качеством графики?) Radeon X1800 XT нигде заметно не уступает GeForce 7800GTX (1—2 fps разницы – не в счет), а некоторых игрушках – вырывается далеко вперед. Браво, ATI! Обычно революционные архитектуры поначалу страдают некоторой, гм, «тормознутостью» и не догоняют отлаженные решения предыдущих поколений, однако в данном случае, похоже, ATI удалось этого если не избежать, то по крайней мере минимизировать. Хотя и назвать это победой язык не поворачивается. Во-первых, по мере отключения «наворотов» и перехода к более простым программам и менее тяжелым графическим режимам GeForce 7800GTX уходит вперед. Во-вторых, 7800GTX поддерживает режим SLI, а X1800 XT режим CrossFire – пока нет. В-третьих, 7800GTX продается уже три месяца и успела снять сливки с рынка Hi-End-ускорителей следующего поколения; цены на ее топовые модификации быстро ползут вниз, и редким пока топовым X1000-м картам, которые поначалу будут недешевы, придется несладко. В-четвертых, как уверяют наши коллеги из других изданий, X1300 и особенно X1600, основанные на сильно урезанной архитектуре R520, в своих рыночных нишах, увы, выступают не слишком удачно. Как только сможем достать соответствующие видеокарты, мы эти утверждения обязательно проверим. Наконец, многие анонсированные видеокарты до сих пор очень трудно (или вообще невозможно) купить – довольно неприятный контраст с оперативным выходом на рынок ускорителей семейства GeForce 7800.
Одним словом, карточки у ATI получились неплохие. Вот только не поздновато ли?
Благодарим компанию ATI за предоставление тестового образца ATI Х1800ХТ и компанию AMD за тестовую платформу на Athlon 64 FX-57.
ОГОРОД КОЗЛОВСКОГО: Текиловый рассвет
Прочитав статью Сергея Блохнина, которую он прислал мне в подготавливаемую рубрику «Как это сделать» о домашнем видео ("КТ ##608—609), где написал: «С недавних пор производители снова перешли на режим жесткой экономии: если раньше даже самые дешевые цифровые камеры имели аналоговые входы для оцифровки, то в новых линейках не все модели даже средней ценовой категории такие входы имеют (например, у Panasonic)», – я огорчился. Ведь и впрямь, начиная с 2000 года и до самых последних времен, оцифровщик автоматически входил в состав любых цифровых камер формата miniDV, так что, приобретая одну из таких, вы уже не испытывали потребности в добавочных устройствах и весь свой видеоархив могли перевести в цифру, используя одну эту камеру.
Впрочем, камера как оцифровщик (во всяком случае, моя, от Canon) была инструментом не вполне универсальным. Она, к примеру, напрочь не понимала отечественного SECaM’а, (ну, то есть какой-никакой сигнал идет, однако цветность исчезает напрочь), так что оцифровать что-нибудь прямо с телевизора было невозможно, и даже не только с телевизора, но и – порой – с аналогового видеомагнитофона, записавшего передачу с SECaM-телевизора; я сам удивлялся последней особенности, ибо мне казалось, что, когда SECaM-сигнал пишется на ленту, он свое SECaM-своеобразие теряет. Вторым неудобством использования видеокамеры в качестве оцифровщика можно считать ограниченную емкость ее кассеты: час или час двадцать при установке в режим LP, чего, вообще говоря, спокойнее не делать. Конечно, можно цифровать через камеру насквозь, без записи на кассету, – но приходится, что иной раз жутко неудобно, сдвигать все вместе: телевизор или видеомагнитофон, камеру, компьютер, – или через кассету порциями, которые потом, на компьютере, сливать воедино, – согласитесь, это лишняя головная боль. Так что, если друзья, которым не хочется отказывать, приносят мне полутора-двухчасовую VHS-кассету с просьбой оцифровать и записать на DVD, я обычно звоню приятелю Коле, владельцу видеозахватчика от Pinnacle MovieBox DV, подробно и довольно восторженно описанного мною в «Огороде» "Design by Fa Porsche", он приносит свою машинку, и я оцифровываю любую видеокассету или телепередачу без малейших проблем.
Таким образом, поведение производителей видеокамер плюс проблемы, которые иной раз возникают у них (камер) при оцифровке аналогового сигнала, снова заставляют заинтересованно глянуть на рынок видеозахватчиков, – потому, когда я оказался в магазинчике «Стоик-М» по поводу описанной в «Огороде» «Восточный DocExpress» документ-камеры, я, приглядываясь к витрине на предмет, что бы еще унести с собой на тестирование, остановил взгляд на двух устройствах этого рода: Snazzi* dv.Bridge II (www.snazzi.com) и Instant DVD+DV от aDS Tech.
Первое представляет собою внешний видеозахватчик, очень близкий к вышеупомянутому MovieBox DV, – правда, размерами он вдвое с лишним меньше (что касается дизайна, он, конечно, не от «Порше», но вполне, на мой взгляд, приемлемый: скромно-аскетичный, уверенно металлический) и имеет возможность корректировать как входной, так и выходной видео/аудиосигнал: регулировать яркость, контрастность, цветовую насыщенность (видео) и громкость (аудио) – причем на лету, в процессе оцифровки или (извините за неологизм) расцифровки (encode – decode). Кроме прочего, dv.Bridge II, имея два FireWire-порта, большой и маленький, позволяет писать видео прямо по цифре с камеры на винчестер, – правда, никакие регулировки (яркость и пр.), что естественно, не работают, да и вообще не совсем понятно, зачем вставлять какой-то бридж (род шунта) между цифровой камерой и компьютером.
Я долго думал и над тем, зачем вообще нужны эти самые регулировки параметров при расцифровке материала: во-первых, уж аналоговый видео/аудиовыход любая цифровая видеокамера имеет наверняка, – хотя бы для того, чтоб можно было посмотреть снятое на телевизоре; во-вторых, любое же дисплейное устройство: телевизор, плазменная или жидкокристаллическая панель, проектор наконец, – всегда имеет встроенные средства регулировки этих четырех параметров и еще нескольких, – пока не додумался, что, возможно, кому-нибудь понадобится перегнать слишком темную (вялую, громкую и т. п.) цифровую видеозапись на аналоговый видеомагнитофон, не умеющий корректировать вышеназванные параметры при записи. Хотя вообразить себе человека с такой потребностью мне не удалось: не хватило фантазии.
Корректировка же входного аналогового видео/аудиосигнала перед его оцифровкой (надеюсь, что dv.Bridge II делает это именно перед [да оно и проще!], – иначе теряется смысл, потому что откорректировать уже оцифрованную запись по всем этим – и ряду других – параметров можно на компьютере с гораздо большей свободой в управлении процессом), – такая корректировка, полагаю, смысл имеет: сигнал DV представляет собою последовательность статически, по алгоритму JPEG, сжатых кадриков, а вам, наверное, известно, что редактировать JPEG-картинки – значит, заметно их портить.
Так что если вы часто встречаетесь с необходимостью править снятое на аналоговой камере – dv.Bridge II для вас. (Сережа Блохнин, настолько видеолюбитель, что уже, пожалуй, и видеопрофессионал, прочитав текст, заметил, что править аналоговое видео приходится очень часто, то есть возможности, предоставляемые dv.Bridge II, отнюдь небесполезны.) Если же нет, то вышеупомянутому пиннакловскому MovieBox DV dv.Bridge II заметно проигрывает (хоть он и несколько дешевле: 7600 рублей против 205—230 долларов). Он, как и большинство видеокамер, напрочь не понимает SECAM, а управление им неочевидно и головоломно: осуществляется оно при помощи пяти кнопок, а результаты надо высчитывать по комбинации цветов двух светодиодов.
Помню, несколько лет назад мне принесли на тестирование изделие зеленоградских умельцев: цифровой диктофон по имени, кажется, «Эдик»: он управлялся (а управляющих возможностей было там едва ли не больше сотни) двумя утопленными микроскопическими кнопочками, а о результатах проделанных операций можно было только догадываться. Попытки управлять dv.Bridge II (я все пытался [безуспешно!] сделать как-нибудь так, чтобы SECAM-сигнал все-таки распознался правильно, хотя, сказать честно, никто этой возможности и не обещал), – как раз и вызвали у меня воспоминания о давних опытах с «Эдиком». Впрочем, если перед dv.Bridge II не ставить непосильных и особо сложных задач, – все в нем работает правильно и с умолчальными установками, к которым устройство – после экспериментов – нетрудно вернуть.
Второй оцифровщик, Instant DVD+DV, представляет собой другое семейство видеозахватчиков: он имеет с компьютером USB-интерфейс, по которому и гонит видео, оцифрованное в MPEG-1, MPEG-2 или в MPEG-4. Таких оцифровщиков есть несколько разных моделей, та, что попала в руки мне, – одна из самых крутых: хоть у нее и нет внутреннего TV-тюнера, зато снаружи имеется FireWire-вход, благодаря которому можно переводить в вышеперечисленные форматы не только аналоговое видео/аудио, но и цифровое. Хотя при нынешних скоростях центральных процессоров последнее лучше всего поручить компьютеру. Да и аналоговое видео цифровать в разные MPEG’и предпочтительнее на компьютере, предварительно получив его (видео) наименее испорченный, DV, вариант. Или – если дискового пространства немерено (по гигабайту на минуту), – даже вообще не испорченный, несжатый, воспользовавшись, например, описанным мною как-то Pinnacle Liquid Edition ("Вещание без лицензии").
Почему предпочтительнее? Ну, во-первых, оцифрованное в один из MPEG-форматов видео довольно трудно монтировать, и даже самый простой монтаж, вроде подрезки, приводит к заметному ухудшению видеокартинки. Во-вторых, более или менее серьезные программы видеоредактирования и DVD-авторинга позволяют настроить параметры кодирования гораздо тоньше (здесь, например, после битрейта 8 Мбит/с идет 9, а потом – 10; так что скрупулезно высчитанные мною максимальные для видео 9,544 Мбит/с я поставить не исхитрюсь никак). В-третьих, наконец, Instant DVD+DV позволяет писать звук только в LPCM или MPEG-1 (Layer 2), то есть в бесплатном, самом простом – по отношению к AC3 от Dolby – и не со всеми проигрывателями совместимом формате.
К достоинствам Instant DVD+DV следует отнести и его понимание SECAM-сигнала, и наличие, кроме трех входных каналов (FireWire и аналоговые: один спереди, один – сзади), аналогового выходного, так что можно, кодируя, сразу наблюдать за результатом, подключив, например, телевизор.
Впрочем, есть у Instant DVD+DV и недостаток: после кодирования на компьютере видна в кадре, в правом верхнем углу, мерцающая белая полустрока, которая, правда, при просмотре на телевизоре скрывается.
Что касается прилагаемого софта, он хоть и влияет на цену, но не очень важен для отечественных покупателей: все равно они будут пользоваться софтом как можно более крутым, который купят в ларьке по рублю за горку. Впрочем, для первого устройства, dv.Bridge II, никакой специальный софт и не нужен: видеозахват через FireWire делают самые разные программы, ибо это – стандарт. По той же причине не нужны dv.Bridge II и драйверы: достаточно одной из современных операционных систем. Тем не менее к нему – в качестве бонуса, что ли, – прилагается несколько простеньких программ для работы с оцифрованным видео: Adobe Premiere elements и WinDVD Creator 2.
С Instant DVD+DV дело обстоит несколько сложнее: им надо управлять, – следовательно, требуются и особые драйверы, и особая (одноименная с самой железкой) программа. Те, что были приложены на диске, устойчивой работы не обеспечили, – поэтому мне пришлось полезть на сайт производителя за новой, достаточно громоздкой (68 мегов) версией софта, после установки которой все заработало отлично, – разве что верхняя мерцающая полуполоска не исчезла. Но хотя и эта главная программа позволяет многое – например, писать непосредственно на DVD-диск, – для более удобной работы к железке прилагаются – тоже несложные и недорогие – программы видеомонтажа и DVD-авторинга, обе от Ulead: VideoStudio 8 и MovieFactory 3 (актуальная на сегодня версия – 4.02).
Пора, наконец, объяснить смысл заголовка: «Текиловый рассвет». Когда я распаковал первую игрушку, по НТВ как раз шла эта прелестная картина: с нежной любовью, мужской дружбой и мексиканским кокаином, с невообразимыми океанскими закатами и рассветами, с обворожительным Мелом Гибсоном и с неотразимой Мишель Пфайфер, – и я надеялся захватить какой-нибудь фрагмент из фильма – для иллюстрации. Но так долго возился в надежде научить dv.Bridge II понимать SECAM, что картина кончилась, – так что в качестве иллюстрации, полученной с помощью Instant DVD+DV, я поневоле использую фрагмент из программы «Время».
Софтерра: Рапидшара, стеллариум и аниме
Сегодняшнюю «Голубятню» посвящаю софтверному обеспечению, придающему пользовательский комфорт в условиях революционной реструктуризации информационно-развлекательных порталов, о которой я рассказывал читателям еще весной.
Напомню, о чем речь. В начале этого года сайты Avaxhome, Medigo, Капитан Немо и иже с ними дружно превратились из скучных бакунианских междусобойчиков в цветущую греческую агору, после того как установили специальный «блоггерский» движок, позволяющий всем желающим делиться любимой музыкой, электронными текстами, видео, компьютерными программами и тем, что Феликс Мучник благообразно окрестил «ой, надо же! – порнуха». Результатом реструктуризации необакунианцев стал феноменальный, фантастический, фантасмагорический рост посещаемости и популярности их порталов, в то время как официальные софтоотстойники впали в окончательную и безнадежную кому.
Сегодня, однако, нас интересует не столько пропагандистски-нравственный аспект случившейся информационной революции, сколько ее техническая подоплека. Даю рекогносцировку: львиная доля контента, распространяемого в современных необакунианских блоггах, – тексты, звуки, исполняемый код и видео, – хранится в файлохранилищах типа RapidShare, MegaUpload, QuickFile и Mytempdir. Причины лежат на поверхности. Неунывающие и вечно бдящие борцы за неприкосновенность авторских прав на информационные продукты постоянно отслеживают утечки контрафакта и глушат ftp-серверы на корню: не успел незадачливый «либертарианец» (тот самый «любитель халявы») выложить у себя какую-нибудь песенку Бритнёвой Спирсни, как его тут же жучат – стучат на хостинг и заодно с контрафактным контентом гонобобят весь сайт. Во избежание подобных эксцессов и было принято единодушное решение делегировать права хранения информации крупным файлохранилищам, которые бдящей публике прикрыть несоизмеримо труднее, а при грамотном юридическом сопровождении – так и совсем не по силам.
Так вот, теоретически файлохранилища эти бесплатны, однако на практике обставлены частоколом малоприятных ограничений типа обязательного лицезрения рекламных баннеров в течение заданного количества минут и/или лимитов на объем загрузки, сопровождаемых длительными таймаутами.
//-- *** --// Самая высокая скорость загрузки – у Рапидшары, у нее же и самый большой таймаут: после каждых скачанных 20 Мбайт полагается ждать целый час. Согласитесь, некомильфо. Для обустройства общежития с Рапидшарой была создана софтина All in One RapidShare Pack 2.0 (рис. 1), сварганенная вьетнамским человеком по кличке Joketar. All in One автоматизирует целый ряд задач, связанных с Рапидшарой, как-то: поиск файлов, программ, фильмов и электронных книг на файлохранилище, быстрый доступ к прокси-рулеткам, включая встроенный модуль Hide Ip-Platinum, и – главное! – принудительная смена IP-адреса и удаление cookies, по которым RapidShare отслеживает вашу квоту загрузок и сроки таймаута. В принципе эти операции можно запросто проделать своими ручками – инструкций про обхождению таймаута RapidShare в Сети хоть отбавляй, – только муторно все это как-то. Гораздо удобнее доверить манипуляции вьетнамским программистам, былым нашим братьям по оружию (вопреки недоброй памяти жареной селедке!).
Аналогичная утилита для преодоления таймаута файлохранилища MegaUpload, вышедшая из-под пера индийского человека Деепеша Агарвала, называется MegaLeecher (рис. 2).
По гамбургскому счету MegaLeecher вызывает у меня скептицизм: таймаут на MegaUpload, как правило, не превышает одной минуты… Надо совсем обнаглеть от безнаказанности и халявы, чтобы создавать («… и тем более пользоваться!» – углубил бы меру нравственного падения Феликс Мучник) программы для устранения столь пустякового ограничения. Впрочем, наше с Феликсом брюзжание все равно не остановит полет фантазии жителей бывших колониальных империй, мстящих сегодня былым поработителям.
Венцом борьбы вконец разленившихся «любителей халявы» с бесплатными файлохранилищами стала программа замечательного нашего соотечественника по прозвищу Dimonius (в миру Дмитрий) – Universal Share Downloader, которая предлагает несколько более цивилизованный подход к решению ситуации с ограничениями по скорости загрузки и таймаутами. Подход этот продиктован спецификой биографии программиста: за плечами Димониуса – музыкальная школа, институт и даже – страшно сказать! – аспирантура… Сами понимаете – с подобным багажом как-то не пристало грубо взламывать защиту файлохранилищ, поэтому в Universal Share Downloader реализован, если можно так выразиться, конфуцианский подход.
На что рассчитывает Рапидшара со товарищи, заставляя пользователей томиться 60 минут в ожидании очередной порции закачки? Правильно: на то, что рано или поздно пользователям либо наскучит ждать, либо они просто запутаются в своих многочисленных загрузках. И тогда, глядишь (чем черт не шутит!), махнут рукой да и подпишутся на платный сервис, в котором все ограничения сняты как по мановению волшебной палочки. Universal Share Downloader заставляет файлохранилища навеки распрощаться со своими иллюзиями: запускаем программу, забиваем в нее сразу все нужные нам ссылки и забываем обо всей головной боли до лучших времен. Программа самостоятельно и вовремя все скачает и разложит по полочкам. В настоящее время она поддерживает следующие файлохранилища: RapidShare.de, MyTempDir. com, qFile.de и WebFile.ru. Однако благодаря открытой архитектуре Universal Share Downloader можно легко добавлять поддержку других хостингов.
Особенно теплых слов заслуживает элегантно-спартанский интерфейс программы, выверенность настроек и такие маленькие, но приятные удобства, как слежение за буфером обмена: достаточно выделить какой-нибудь рапидшарный линк, как он сразу же попадает в Universal Share Downloader и автоматически обрабатывается.
//-- *** --// //-- *** --// А вот программа из совершенно иной оперы. Stellarium (рис. 3) – это приятное пополнение моей астрономической (не путать с астрологической!) копилки.
Читатели, знакомые с картами звездного неба, описанными в «Голубятнях», – от профессионального Redshift до фаворита Starry Night Enthusiast, – не найдут в Stellarium ничего нового с точки зрения функциональности и чисто научной информативности. Во всех отношениях бесплатный («гуньевский») Stellarium уступает своим коммерческим конкурентам. Во всех – кроме одного: графики! Небесная сфера выписывается этой программой с красочностью и сочностью, совершенно недостижимыми для «взрослых» программ. Даже при отключенной опции, выполняющей наложение художественных репродукций на созвездия, реалистичность небосвода заставляет затаить дыхание любого неравнодушного человека. Ага, вот оно – точное определение: программа Stellarium создана не столько для тех, кто изучает науку астрономию, сколько для тех, кто влюблен в звезды!
Под занавес, с превеликим удовольствием представляю всем единомышленникам замечательный сетевой ресурс – Anime Forever. На этом пермском портале любителей японской мультипликации – форум, чат, фанфики и шикарнейшая подборка DVD-дисков (411 сериалов!), которые за символическую по московским меркам плату (80 рублей за диск) высылают почтой в любое место страны. При желании диски можно не покупать, а просто обмениваться ими (один к одному), поскольку коммерческий аспект проекта пыхтит где-то на третьестепенных ролях на фоне желания расширить коллекцию и максимально распропагандировать любимое искусство. Хотя в последнем – большой нужды нет: подозрительно сразу после выхода моей прошлогодней темы номера («Аниме: на стыке цивилизаций») японская мультипликация на «Горбушке» стала плодиться аки порась. Сегодня на этом великом базаре контрафакта киосков, торгующих аниме, уже гораздо больше, чем киосков с порнографией.
Линки, помянутые в «Голубятне», вы найдете на домашней странице internettrading.net/guru.
Держите свой офис открытым
Для многих само понятие офисного пакета неразрывно связано с детищем Microsoft. Но оглянитесь вокруг, и вы увидите достойного бесплатного конкурента.
//-- Курс древнейшей истории --// История OpenOffice.org уводит нас в конец прошлого тысячелетия, в Германию, к фирме Star Division. Изначально он назывался Star Office и носил статус freeware. Когда пакет достиг версии 5.1, его популярность привлекла внимание небезызвестной Sun Microsystems, которая купила Star Division и начала сама распространять Star Office 5.2, но уже за деньги. В то же время Sun открыла его исходные тексты и развернула проект OpenOffice.org – бесплатный офис на основе Star Office 5.2. OpenOffice.org стал быстро развиваться, меньше чем за год OpenOffice.org обзавелся полной поддержкой документов MS Office 97 и выше (до этого поддерживался только MS Office 95) и был переведен на многие языки мира, избавился от неудачного рабочего стола, в котором присутствовала своя панель задач и аналог кнопки «Пуск». Русскоязычные пользователи почувствовали себя в своей тарелке, когда за дело взялась фирма AltLinux, которая не только перевела интерфейс, но и разработала русские словари для проверки орфографии и расстановки переносов. В 2002 году вышел Star Office 6.0, отличавшийся от OpenOffice.org более широким набором приложений и вспомогательных инструментов. В 2003-м увидел свет Star Office 7.0, а OpenOffice.org 1.1 был признан офисным пакетом года на Open Choice Awards 2003. В 2004 году разработчики двигались в двух направлениях – повышали стабильность ветки 1.1 и замышляли что-то новое, грандиозное…
//-- *** --// Минувшей весной стали выходить первые тестовые версии нового пакета, который будет носить индекс 2.0. Летом свершилось то, чего так ждали разработчики: офис сменил сложную двойную лицензию, которая указывала: «это не надо, а это нельзя», на легендарную GPL. 3 октября вышел релиз-кандидат второй версии, а значит, если в нем не обнаружится серьезных ошибок, скоро по миру разлетится OpenOffice.org 2.0.
//-- Курс новейшей истории --// Рассказ об OpenOffice.org 2.0 будет непонятен для тех, кто ни разу не видел предыдущих версий, поэтому сначала рассмотрим, что представляет собой стабильная версия OpenOffice.org 1.1.5 и чем она отличается от Microsoft Office.
OpenOffice.org 1.1.5 – это бесплатный набор офисных программ, куда входят следующие компоненты:
Writer (текстовый процессор и редактор HTML);
Calc (электронные таблицы);
Draw (графический редактор);
Impress (система презентаций);
редактор формул;
модуль доступа к данным.
OpenOffice.org 1.1.5 может открывать практически все документы MS Office (Word, Excel и PowerPoint), редактировать их и сохранять как в оригинальном формате, так и в формате OpenOffice.org 1.0. Основное ограничение состоит в том, что OpenOffice.org не исполняет макросы в этих документах. Но они сохраняются, и вы можете использовать их при работе с MS Office.
OpenOffice.org имеет интегрированную структуру. Все его приложения – лишь небольшие надстройки над общим ядром офиса.
По своим возможностям OpenOffice.org 1.1.5 немного уступает именитому конкуренту. Writer не может проверять синтаксис и стилистику в текстах, а именно: расставлять запятые, ворчать при виде бранных слов, зеленеть от слишком сложных предложений. Функции рисования в 1.1.5 намного беднее, чем в MS Word. С другой стороны, Writer умеет автоматически завершать слова после первых трех набранных символов.
OpenOffice.org – кроссплатформное приложение. В каждой операционной системе он имеет минимальную интеграцию со встроенными компонентами. Как следствие – повышенная стабильность, но слишком большое время первой загрузки приложения.
//-- Дорога на ваш жесткий диск --// То, что OpenOffice.org 2.0 – большой шаг вперед по сравнению с веткой 1.1, заметно с первых секунд установки. Пакет обзавелся программой для работы с базами данных, которая раньше была только в Star Office, средствами синхронизации с карманными ПК, другими вспомогательными утилитами. У всех программ, а также у документов для каждого из компонентов офиса сменились значки. Все эти мелкие графические элементы стали гораздо красочнее и выразительнее.
//-- *** --// OpenOffice.org 2.0 стартует быстрее своего старшего брата, показывая симпатичную заставку. (Летом на сайте oosurvey.gratismania.ro/polls проходило открытое голосование по поводу выбора лучшей заставки для OpenOffice.org 2.0, так что даже в таком, казалось бы, пустяковом вопросе работа ведется сообща.) Как ни странно, утилита быстрого запуска QuickStart не дает большого выигрыша при первом запуске, зато повторные открытия приложений происходят моментально, задержка практически не ощутима на глаз. OpenOffice.org 1.1.х был менее оптимизирован для быстрой загрузки, польза от утилиты быстрого старта была заметна меньше. Диспетчер задач Windows показывает, что QuickStart занимает в памяти около 15 Мбайт, а при открытии основного приложения расход памяти увеличивается до 50—60 Мбайт. OpenOffice.org 2.0 проворно открывает небольшие документы в своем родном формате, но по-прежнему невыносимо долго обрабатывает большие, сложные документы MS Office. «Двойка» заметно быстрее распахивает новые окна и закрывает документы, невооруженным глазом видно увеличение скорости работы интерфейса.
//-- Ну и рожа у тебя, Шарапов! --// Внешний вид OpenOffice.org 2.0 преобразился до неузнаваемости, ему мог бы позавидовать любой здравомыслящий хамелеон. Подобно этому уникальному зверьку, пакет умело маскируется в той среде, куда его установили. В Windows XP с выключенной стилизацией окон OpenOffice.org 2.0 не отличишь от MS Office 2003 из-за аналогичных выпуклостей панелей инструментов. Схема Luna в Windows XP придает его кнопкам плоскую форму. В Linux, в рабочей среде KDE, наш хамелеон прикидывается приложением QT, а в GNOME блистательно играет роль GTK2-приложения. Но есть среди нас Станиславские, которые воскликнут «не верю!» и будут правы – OpenOffice.org 2.0 по-прежнему не использует компоненты операционных систем.
//-- *** --// Панели инструментов теперь можно таскать, как котят, за левые края по всему рабочему экрану приложения. Если раньше, к примеру, при работе с таблицей нижняя строка панели «Форматирование» заменялась «Таблицей», то сейчас новая панель по умолчанию появляется в виде дополнительного окошка, которое можно прикрепить в произвольном месте. Закончили работу с таблицей, нет надобности лицезреть ее панель – она автоматически скрывается. По умолчанию больше нет боковой панели инструментов. Часть ее функций перекочевала в верхние панели, а часть стала пунктами меню программы. Настройка панелей теперь не вызывается правой кнопкой мыши, а находится в меню Tools Х Customize Х Menus. На первый взгляд, это шаг назад. Но процедура настройки заметно упростилась – все значки представлены в списках, достаточно только выбрать необходимые. В OpenOffice.org 1.1.x далеко не каждая функция была снабжена значками, приходилось вручную создавать новые элементы панели инструментов.
//-- Совместимость важна не только в семье --// OpenOffice.org 2.0 стал первым пакетом, поддерживающим OASIS OpenDocument XML format, который в мае нынешнего года был утвержден Еврокомиссией в качестве стандарта. Конечно, никто не собирается законодательно обязывать использовать OpenDocument как формат официального документооборота, в отличие, например, от чертежей: для себя рисуй, как хочешь, а для работы – строго по стандарту. Но тенденция налицо – мир старается уйти от закрытого, кишащего вирусами (слово: «небезопасный» не отражает и сотой доли проблем) формата, используемого в MS Office (.doc, .xls и пр.). Первые ласточки вспорхнули еще в прошлом году, когда Сберегательный банк России запретил использовать формат DOC в официальном документообороте, внедрив открытый, безопасный, но несколько устаревший RTF. Формат OpenOffice.org 1.0 не является открытым, несмотря на открытый статус программы. Разработчики так и не сделали того, о чем так долго просили пользователи Linux, – отдельную документированную библиотеку, используя которую, можно было бы в любой программе открывать документы формата. Поддержку же OpenDocument в своих продуктах может реализовать любой, так как спецификации формата открытые. Физически OpenDocument имеет ту же XML-структуру, что и OpenOffice.org 1.0 (SXW, SXC и т. д.). Файлы документов в новом формате получаются на 5—10% больше, чем в OpenOffice.org 1.0. Но это не беда, если учесть, что документы Microsoft Office в 5—10 раз больше кушают дисковую память.
Последняя версия стабильной ветки OpenOffice.org 1.1.5 также полностью поддерживает OpenDocument. MS Office 2003 не имеет поддержки нового формата, причем Microsoft заявляет, что ее не будет и в дальнейших версиях. Результатом таких заявлений стал отказ от MS Office в некоторых государственных учреждениях мира. Например, в августе 2005 года власти штата Массачусетс запретили использование MS Office в правительственных учреждениях по причине отсутствия совместимости с открытыми стандартами.
Документы MS Word и MS Excel открываются без проблем, но очень медленно. 10-мегабайтный doc-файл с таблицами и картинками загружался на моем Athlon XP 2500+ с 1 Гбайт ОЗУ около 20 секунд. Я уж было подумал, что офис завис – после 5 секунд работы индикация встала как вкопанная. Но если раньше даже такие нервные ожидания не гарантировали отсутствия катастрофической потери форматирования в документах, то теперь наконец-то все документы в форматах, порожденных приложениями Microsoft Office, открылись в приемлемом виде. Где-то чуть-чуть съезжали картинки, где-то таблица выехала на сантиметр за поля, но ничего непоправимого не было. На фоне того, что последние версии MS Office порой имеют проблемы с открытием своих же документов, созданных в более ранних версиях, общая картина совместимости получается весьма любопытной.
//-- Мир новых возможностей --// Универсальные новые функции доступные из каждого приложения
В любые документы OpenOffice.org 2.0 теперь можно вставлять не только графику, но и звуки и видео. В пакет встроен собственный Media Player, позволяющий воспроизводить информацию, не выходя из программы. Реальная польза от него будет заметна в OpenOffice Impress, так как презентации теперь могут превращаться во что угодно – от просмотра годового отчета компании по выпуску смычков под Лунную сонату Бетховена до анонса новой модели автомобиля под фильм «Такси».
//-- *** --// Одним щелчком мыши теперь можно послать документ по почте – на панели красуется кнопка с изображением летящего конверта. В меню File предлагается широкий выбор действий: послать как документ, как PDF-вложение, как HTML-страницу. В меню Tools появился заботливый Wizard, который поможет новичкам отослать письмо с текущим документом. Не спешите падать со стула от смеха и умиления – не все так просто. Письмо может быть как электронным, так и бумажным. Во втором случае Wizard поможет вам быстро и грамотно создать и письмо, и конверт, в котором вы собираетесь послать документ. Адрес берется из адресной книги, которая тоже является частью OpenOffice.org 2.0. Впрочем, письмо я послать не смог, так как программа потребовала JavaMail, которого у меня, конечно, нет.
OpenOffice.org 2.0 имеет встроенную систему защиты документов цифровой подписью.
Улучшился экспорт в PDF. Поскольку большая часть документации в качестве конечного формата использует именно PDF, можно предположить, что OpenOffice.org 2.0 сумеет немного потеснить легендарный TeX (LaTeX). Поддержка PDF появилась, начиная с версии 1.1, однако «двойка» предлагает более широкие настройки экспорта, вплоть до указания процента сжатия. Кроме того, в новой версии можно создавать PDF-документы с гиперссылками, указывающими как на локальные страницы в документе, так и на страницы в Интернете. Экспорт PDF в OpenOffice.org 2.0 предоставляет новые настройки сжатия JPEG-файлов. Раньше пользователь мог выбирать только между тремя ступенями DCT-сжатия, а в новой версии есть выбор между DCT– или LZW-cжатием без потерь.
Появился обновленный каталог графических фигур – Custom Shapes, во многом похожий на каталог Auto Shapes из пакета MS Office. Богатейший арсенал фигур производит сильное впечатление: рисование сложных схем теперь не становится непреодолимой преградой.
Внутри каталога графических фигур нетрудно найти FontWork Gallery – аналог WordArt’а. По возможностям утилиты примерно равны, но FontWork Gallery можно использовать в любом типе документа OpenOffice.org.
Можно мышкой выделить часть текста и перетащить в окно выбора стилей. Вам предложат сохранить текущий стиль как новый. Таким элегантным способом легко создавать собственные стили. Применение стилей теперь можно вешать на горячие клавиши.
История последних открытых документов теперь по умолчанию хранит десять записей.
В заголовке окна теперь пишется реальное имя файла, а не строка Title из свойств документа.
//-- Новое в OpenOffice.org Writer --// Самым востребованным приложением в офисном мире всегда был и есть текстовый процессор. Более половины документооборота осуществляется с его помощью, единственным же «конкурентом» можно считать электронные таблицы. Можно возразить, что документооборот, генерируемый «1С:Предприятием» там, где этот продукт используется, тоже весьма существенен, но это тема для отдельной статьи.
В меню программы тоже произошли изменения – появился пункт Table, отвечающий за работу таблиц. Основное новшество второй версии – возможность создавать таблицы внутри уже существующих таблиц с неограниченным уровнем вложения. Кнопка создания таблицы теперь находится прямо на панели. Больше не нужно тянуться в левый край экрана, нажимать на кнопку «Вставить» и лишь затем выбирать пункт «Таблица». Вторая существенная функция – возможность преобразовывать текст в таблицу. Выделяете текст, выбираете в меню пункт «text to table», и текст оказывается внутри свежесозданной таблицы. Возможна и обратная процедура. Выделяете в таблице произвольный кусок текста, выбираете «table to text», и текст будет отформатирован в чистом виде. Ячейки можно отделять символами табуляции, абзацами, а также независимыми колонками.
Под барабанную дробь следует говорить о следующем улучшении OpenOffice.org Writer: возможности вычисления в таблицах. Нажмите F2 – появится строка, как в табличном процессоре, где вы сможете назначать любые, даже самые замысловатые формулы. Вычисления могут производиться между соседними таблицами в пределах одного документа (файла).
Форматирование таблиц тоже сильно упростилось. Появились новые опции и кнопки на панели для выравнивания. Существующие же с древних времен функции теперь не запрятаны в глубоких подменю, а вызываются с панели инструментов, из меню Table или из контекстного меню. Появились отдельные кнопки для выделения строк и столбцов таблиц, заливки таблиц и отдельных ячеек текстурами. В таблицах теперь можно оперировать сразу несколькими ячейками. Направление текста можно указывать для каждой ячейки в отдельности, по умолчанию оно совпадает с тем, что на всей странице.
Расширена статистика документа. В нынешней версии она может показывать количество слов, символов и т. д. не только во всем тексте, но и в выделенном отрывке. Наконец-то на панели появилась кнопка предварительного просмотра страницы. Специальная вставка повешена на сочетание клавиш – Ctrl+Shift+V по умолчанию.
Ctrl+h и Ctrl+ i теперь двигают параграфы в документе.
В документах, открытых только для чтения, доступно копирование информации в буфер обмена.
//-- Новое в OpenOffice.org Calc --// Вы можете легко вставлять таблицы из внешних файлов: Insert Х Sheet from file.
В таблице теперь может быть 65536 строк вместо 32000. Это сделано для совместимости с MS Excel.
Ячейки таблиц могут иметь диагональные бордюры. Эта функция вызывается из Format Х Cells Х закладка Borders. В левом окошке можно выбрать диагональные линии. Кто когда-нибудь составлял турнирные таблицы, оценит эту возможность – диагональное форматирование образует полосу, которая простирается от левого верхнего до правого нижнего угла. Сам с собой ведь не будешь играть – поэтому ячейки зачеркивают одной диагональной чертой.
Когда ячейки отфильтрованы с помощью AutoFilter, Standard Filter или Advanced Filter, следующие действия не сказываются на отфильтрованных рядах, действуя как выделение нескольких ячеек без этих рядов:
удаление содержимого ячеек;
удаление рядов (удаление отдельных ячеек выключено);
изменение формата ячеек, включая стили.
В новом Calc открылись богатые возможности форматирования примечаний:
окно можно двигать, менять размер;
текст можно произвольно форматировать, применять стандартные атрибуты;
стрелку и линию можно гибко настраивать;
можно менять цвет фона, делать его градиентным или залитым текстурой.
Текст в таблицах может теперь писаться справа налево, что позволяет использовать в документах азиатские языки.
Новое в OpenOffice.org Impress
У программы полностью сменился движок, благодаря чему в презентациях можно использовать множество ранее недоступных эффектов.
Для повышения совместимости между Impress и Microsoft PowerPoint расстояние между строками больше не зависит от шрифта.
Новое в OpenOffice.org Draw
Панель инструментов рисования целиком переделана, чтобы обеспечить работу с новыми видами фигур: Basic, Block Arrow, Symbol, Flowchart и Stars & Banners.
Геометрию фигур в CustomShapes можно гибко редактировать. Фигуры могут быть преобразованы в 3D-формат и использоваться в утилите Fontwork для рисования неземной красоты надписей.
//-- Новый компонент – OpenOffice.org Base --// В этом приложении вы можете создавать формы, рапорты, таблицы. Все базы данных хранятся в одном файле с общим форматом данных.
Драйверы OpenOffice.org 2.0 позволяют запускать цифровые, строчные и «дата-время» функции, описанные в SQL92 для dBase, flatfile и электронных таблиц.
Для создания новых баз данных имеется мощная система Wizard’ов, позволяющих быстро освоиться в этом приложении.
//-- Резюме --// Время показывает, что единственным серьезным конкурентом у Microsoft Office в течение последних лет является только OpenOffice.org. В первую очередь, это обусловлено тем, что у OpenOffice.org уже давно существует приемлемая поддержка закрытых форматов MS Office, а значит, возможна безболезненная миграция пользователей. Большим плюсом пакета является и его кроссплатформность, благодаря которой он служит мостиком, связывающим две абсолютно разные операционные системы – Linux и Windows.
Налицо тенденция к упрощению делопроизводства, многие новые функции ориентированы на облегчение трудоемких операций, на помощь в освоении продукта пользователями.
Команда разработчиков OpenOffice.org состоит всего из пятидесяти человек, а как много они сделали и продолжают делать. Всего два года труда, а продукт словно перешел из девятого класса сразу в аспирантуру. Нельзя сказать, что OpenOffice.org опережает MS Office в развитии, но сближение их функциональных возможностей видно невооруженным глазом. Я, правда, считаю, что консервативным людям лучше оставаться с продуктом от Microsoft. Пока еще рано с кровью отрывать людей от насиженных мест – благодарности можно и не дождаться. Если, скажем, вам необходимы макросы MS Office, то ни один другой пакет их обработать не сможет. Но и в OpenOffice.org есть множество уникальных функций. Например, автоматическое завершение слов после набора первых трех букв раза в полтора-два ускоряет ввод текста.
OpenOffice.org и все создаваемые им документы не подвержены заражению вирусами, ставшими привычными гостями у пользователей MS Office. Вам не нужно поздравлять с днем рождения высокотехнологичного бандита, написавшего легендарный вирус, который, подобно агенту Смиту, заразил в свое время половину мирового документооборота.
Если не случится ничего непредвиденного, то зимой мы увидим финальную русскую версию OpenOffice.org 2.0.
Первое плавание Морской Обезьяны
Mozilla – раскрученное имя, знакомое большинству пользователей всемирной сети. Родившись в 1998 году как узкоспециализированный проект, после семи лет развития он стал массовым явлением. О главном детище проекта – Mozilla Firefox – говорят на каждом углу. Согласно рейтингу журнала PC World, «Огненная Лисичка» заняла первое место среди продуктов высоких технологий, оставив за спиной Google Gmail.
Казалось бы, чего еще желать нам, простым пользователям? Однако мы с вами незаслуженно забыли об одном пакете, который и стал отправной точкой для всего зоопарка, созданного Mozilla.org. Адамом и Евой были компоненты интегрированного набора инструментов для работы в Интернете – Mozilla Suite.
Этот программный продукт развивался много лет, обрел свой небольшой круг преданных фанатов, но так и не дошел до широких масс, пропустив вперед браузер Mozilla Firefox. Далеко не все были согласны с таким развитием событий, и летом нынешнего года началась работа над проектом SeaMonkey (в переводе означает «Морская Обезьяна»), цель которого – совместить интегрированную структуру Mozilla Suite с новыми возможностями «официальных» программ Mozilla Firefox и Mozilla Thunderbird.
//-- Анатомия Обезьяны --// За основу взят Mozilla Suite – как проверенный годами продукт с высочайшей стабильностью и выверенным кодом. К нему было добавлено множество функций, ставших привычными для пользователей Mozilla Firefox и Mozilla Thunderbird. Что же нового ждет нас в SeaMonkey по сравнению со старичком Mozilla Suite?
Навигатор – браузер интегрированного набора SeaMonkey
SeaMonkey имеет новый движок отображения HTML-страниц Gecko 1.8b4 (вместо 1.7 у Mozilla Suite), который используется в Firefox 1.5 beta.
Во всех компонентах SeaMonkey теперь доступна плавная прокрутка текста, возможно использование значков сайтов (favicons), а также автоматическое изменение размеров изображений в зависимости от масштаба страницы.
Появились более гибкие настройки поиска по мере набора текста.
Появились средства для обновления набора компонентов. Теперь не нужно целиком скачивать новую версию, если вышло обновление программы. Эта функция работает только с официальными английскими версиями.
Появились средства работы с удаленным профилем на сервере.
//-- Навигатор – браузер SeaMonkey --// В движок Gecko 1.8b4 включена поддержка векторного формата SVG, на основе которого можно создавать удивительно красивые сайты.
Появился быстрый переход «вперед» и «назад». При нажатии на эти кнопки страница не рендерится заново, а моментально отображается из быстрого кэша памяти.
Существенно улучшена работа со вкладками. Многие настройки, которыми нас раньше баловали лишь внешние программы, теперь включены в SeaMonkey.
Улучшена блокировка всплывающих окон.
Почта и конференции – почтовый клиент SeaMonkey
Почтовый клиент претерпел серьезные изменения.
Все почтовые ящики теперь могут быть представлены в одной общей группе папок (как в MS Outlook). Сохранен и прежний вид папок (как в The Bat!).
Появилась поддержка виртуальных папок, которые физически являются результатом работы фильтров.
Появилась проверка орфографии по мере набора текста. Слова с ошибками тут же подчеркиваются красной волнистой чертой (как в MS Word).
Созданное сообщение автоматически сохраняется в папку «Черновики». Пусть злодеи выключают свет, ваше письмо не пропадет.
Помимо фильтра спама, включены средства борьбы с мошенничеством.
Можно настроить «Ответ» и «Пересылку» как действие фильтров.
Включены средства авторизации Kerberos.
Появилась интеграция с антивирусным программным обеспечением и внешними программами борьбы со спамом.
Компоновщик и Chatzilla изменились мало.
Теперь посмотрим, что так и не появилось в SeaMonkey, но есть в Mozilla Firefox и Mozilla Thunderbird.
Как не было, так и нет поддержки технологии RSS. Поддержка RSS в SeaMonkey осуществляется только через расширения.
SeaMonkey унаследовала алгоритм работы с панелью инструментов от Mozilla Suite, и, как следствие, ее нельзя гибко настраивать.
Нет менеджера расширений. Расширения нельзя удалить штатными средствами.
Слабая совместимость с расширениями для Mozilla Firefox. Впрочем, это уже слишком – требовать, чтобы модули от одной программы подходили к другой. Но несмотря на это, большое количество расширений работает и в SeaMonkey.
Таможенный контроль Обезьяны
Итак, мы имеем интегрированный набор инструментов, который многое позаимствовал у своих популярных братьев, однако не может похвастаться такой же гибкостью и расширяемостью. Каковы же плюсы и минусы SeaMonkey?
Интегрированный набор требует гораздо меньше системных ресурсов, чем все его компоненты в независимых модификациях. Интеграция – это не просто общий движок, ядро. Интеграция заметна во многих мелких деталях. Допустим, работая в браузере, вы увидели ссылку mailto:чей-то@почтовый.адрес: нажмите на нее мышкой, и тут же откроется окно создания сообщения для вашего далекого друга. Причем никакие внешние программы запускать не надо, не требуется настраивать «программы по умолчанию» в рабочей среде – все сделано заранее для вашего удобства.
Вы читаете рассылку в почтовом клиенте, увидели ссылку www.желанный.адрес, нажимаете на нее мышкой, и резво открывается окно браузера. То же самое происходит, если вы кликнете на ссылку во время беседы на IRC-канале.
SeaMonkey имеет более богатые настройки, чем Firefox и Thunderbird вместе взятые; для комфортной работы с ним требуется гораздо меньше расширений, что благоприятно сказывается на стабильности.
Стабильность – вторая после интеграции козырная карта SeaMonkey. Над кодом Mozilla Suite люди трудились многие годы, в нем очень мало ошибок.
SeaMonkey настраивается проще и быстрее, чем отдельные компоненты, так как многие настройки влияют сразу на весь набор инструментов. Вам не потребуется путешествовать по нескольким программам, держа в голове, как были настроены другие компоненты.
Будучи наследником Mozilla Suite, SeaMonkey имеет давнюю историю, поэтому хорошо знаком старожилам Интернета.
Вы не можете обновить один компонент, не затронув другой. То же самое происходит, если какими-то настройками вы испортите себе работу, – нарушение будет трудно исправить, не задев собратьев по несчастью.
Отсутствие менеджера расширений делает работу с расширениями игрой в русскую рулетку. Вдруг устанавливаемое расширение окажется неработоспособным? Удалить его будет уже непросто.
SeaMonkey – молодой проект, для работы в нем оптимизировано еще мало расширений, к тому же многие из них имеют остаточную совместимость. Авторы в последнюю очередь заботятся о том, чтобы их детище работало в SeaMonkey.
Интерфейс SeaMonkey кажется неудобным для новичков, которым было бы проще иметь много наглядных кнопок на панели инструментов, нежели запоминать горячие клавиши или расположение пунктов меню для тех или иных действий.
Формально SeaMonkey пока даже не завершен, поэтому у пользователя может создаться ошибочное ощущение изгоя на фоне легиона пользователей Internet Explorer и смелой гвардии поклонников Mozilla Firefox, «возвращающих себе Web», как гласит слоган рекламы «огненного браузера». Ошибочное оно потому, что «Обезьянка» – родная сестра «Лисички». Многие навыки работы с Mozilla Firefox пригодятся и в работе с SeaMonkey.
//-- Обезьяна получает билет на интернет-пароход --// Альфа-версия SeaMonkey 1.0 вышла месяц назад. Многие могут подумать, что она еще очень сырая, что в ней полно ошибок. Но это совсем не так.
Начнем с того, почему SeaMonkey не претендует на звание финального релиза. Дело в том, что сам движок Gecko 1.8 немного не доделан и имеет статус beta 4. Отчасти по той же причине и Mozilla Firefox носит статус beta. Ее разработчики синхронизируют свою деятельность с авторами движка Gecko, и, скорее всего, выход финальной версии Mozilla Firefox 1.5, запланированный на декабрь, совпадет с завершением работы над Gecko 1.8.
Небольшое отступление. Несмотря на свой статус движок Gecko очень стабилен, в нем мало серьезных ошибок. Дело в том, что разработчики наметили план по улучшению движка и пока весь его не реализуют, так и будут обзывать плод своего труда ругательными для пользовательского уха словами «альфа», «бета»…
Но вернемся к нашей Обезьяне. Вторая причина, по которой проект носит статус альфа. Видимо, разработчики очень стыдятся того, что у проекта пока нет своего логотипа, фирменной графики. Почему? Да потому, что в команде нет ни одного дизайнера!
Но на помощь пришла известная практика OpenSource-проектов. А наша Обезьянка, между прочим, абсолютно бесплатна, и вы можете даже заглянуть ей в рот, увидев там исходные тексты. Так вот, разработчики объявили конкурс на лучшие логотипы для своего продукта. Конкурс недавно закончился, и уже в следующей версии SeaMonkey мы сможем увидеть нечто симпатичное. Что именно?
Фирменную стартовую заставку.
Фирменный индикатор активности браузера (синяя буква "E" в Interner Explorer, буква "N" в Netscape Browser);
Возможно, новую тему оформления.
Взглянем на эту проблему с другой стороны. Заметьте, что вам достаточно установить какую-нибудь дополнительную тему оформления, и все «проблемы» с отсутствием фирменной графики уходят на второй план.
Куда поплывет пароход с Обезьяной?
Для кого же старается команда разработчиков SeaMonkey, которую взяла под крыло могучая организация Mozilla.org?
Во-первых, для стариков. В мире Интернета «старики» – это люди, кому далеко за двадцать и кто начинал свою виртуальную жизнь в прошлом тысячелетии. Ведь интерфейс SeaMonkey практически не изменился со времен Netscape 4.0! До боли в сердце он кажется родным и привычным тем, кто делал первые шаги в Интернете в эпоху господства Netscape Communicator.
Во-вторых, программа ориентирована на тех, кто хочет иметь современные и безопасные инструменты для работы в Сети, но кого совсем не тянет возиться с расширениями для Mozilla Firefox. Лучше, чтобы все было сразу, в одном флаконе.
И, в-третьих, SeaMonkey понравится тем, для кого важнейший критерий – стабильность в работе не в ущерб инновационным решениям.
– Официальная страница проекта:
www.mozilla.org/projects/seamonkey
–Форум поддержки на русском языке: forum.mozilla.ru. Русская версия SeaMonkey 1.0a для Windows и Linux находится по адресу
ftp.mozilla.ru/seamonkey/1.0a
(обе версии имеют размер 11,5 Мбайт).
ТЕХНОЛОГИИ: Что такое Веб 2.0?
Данные – это следующий Intel Inside
Все современные интернет-приложения завязаны на базы данных: поисковик от Google, каталог (и поисковик) от Yahoo!, склад товаров на Amazon, картотека товаров и продавцов на eBay, карты MapQuest, каталоги Napster… Хэл Вэриан в прошлом году даже сказал, что «SQL – это новый HTML». Компаниям эпохи Веба 2.0 важно уметь работать с БД. Так важно, что порой мы называем новые приложения не software, а infoware.
Все это подводит нас к главному вопросу: кто владеет данными?
Очевидно – и тому есть множество примеров, – что в эпоху Интернета тот, кто владеет БД, владеет и рынком, а значит, получает львиную долю прибыли. Монополия на регистрацию доменных имен, предоставленная американским правительством компании Network Solutions (позднее куплена Verisign), была одной из первых по-настоящему денежных сделок в Интернете. И если сохранить рыночное преимущество, контролируя API, все труднее, контроль над важными источниками данных обеспечить куда проще. Особенно если эти источники дорого воссоздать (или они были обогащены с помощью пользователей сервиса).
Взгляните на копирайты на картах от MapQuest, maps.yahoo.com, maps.msn.com или maps.google.com. Везде будет пометка «Maps copyright NavTeq, TeleAtlas» или «Images copyright Digital Globe» (это новый поставщик спутниковых изображений). Обе компании изрядно вложились в свои БД. (Только NavTeq, как говорят, потратила на создание БД с названиями улиц и маршрутами 750 млн. долларов. Digital Globe пришлось расстаться с 500 млн. долларов, чтобы запустить собственный спутник, делающий снимки с лучшим разрешением, чем правительственные сателлиты.) NavTeq дошла до того, что стала лепить свое лого на автомобили, оснащенные системами навигации, – почти как когда-то Intel со своим Intel Inside.
Данные, несомненно, и есть единственный важный компонент подобных приложений, тогда как сам софт по большей части поставляется в открытом виде, а даже если и нет – все равно вполне доступен.
Давайте на примере высококонкурентного рынка веб-картографии посмотрим, как непонимание важности владения ключевыми данными может ухудшить конкурентоспособность. Первой на рынке веб-карт была MapQuest в 1995 году, за ней пришла Yahoo!, потом – Microsoft, а недавно к ним присоединился и Google, – при этом все компании, лицензируют у поставщиков информации, по сути, одни и те же данные.
Возьмем обратный пример: Amazon. Изначально его БД была построена на регистре кодов ISBN от R.R.Bowker. Базы конкурентов, соответственно, не имели существенных отличий. Но в отличие от MapQuest, Amazon без устали дополнял данные, добавляя информацию, предоставленную издателем, – обложки, содержание, оглавление и даже фрагменты из книг. Что важнее, Amazon привлек пользователей для написания аннотаций, и теперь именно Amazon – а вовсе не Bowker – является главным источником библиографической информации для филологов и библиотекарей, не говоря уж о простых смертных. Также в Amazon был разработан уникальный идентификатор ASIN, покрытие которого шире, чем у ISBN.
В общем, Amazon догнал и перегнал своих поставщиков информации.
Представьте, что точно так же поступила бы MapQuest: привлекла бы пользователей к аннотированию карт и маршрутов и даже к созданию новых информационных слоев. Бороться с такой компанией конкурентам, у которых в наличии только оригинальные лицензированные данные, было бы куда труднее.
Именно этим сейчас занимается Google. Google Maps – это эксперимент по созданию конкуренции между поставщиками данных и разработчиками приложений. Упрощенная модель программирования от Google привела к появлению множества дополнительных сервисов, которые построены на совмещении функциональности Google Maps с другими данными, доступными в Интернете. Так, например, housingmaps.com позволяет накладывать на карты от Google риэлторские объявления от Craigslist. На выходе у нас получается новое интерактивное приложение, превосходный пример смешивания технологий.
В настоящий момент подобные гибриды в основном являются инновационными экспериментами, уделом хакеров. Но и предпринимательская активность не за горами. Да уже можно видеть как минимум один класс таких разработчиков – ведь сам Google «увел» роль источника данных от Navteq, превратив себя в популярного посредника. В ближайшие несколько лет мы станем свидетелями самых настоящих битв между поставщиками данных и поставщиками приложений – когда обе стороны осознают, что определенная информация может быть ключевой для построения блоков приложений Веба 2.0.
За определенные классы ключевых данных – местоположение, личную информацию о пользователях, календари общественно-значимых событий, идентификаторы товаров и пространства имен – битва уже началась. Если воссоздать набор информации – удовольствие не из дешевых, то компания, у которой эти данные уже есть, может попытаться воспользоваться своим положением и разыграть карту Intel Inside. В других случаях победит та фирма, чья база данных первой наберет критическую массу с помощью пользователей, – если, конечно, компания сможет обратить эти аггрегированные данные в системный сервис.
К примеру, если мы говорим о сетевой идентификации пользователей, то Paypal, Amazon 1-Click и миллионы пользователей систем связи вполне могут считаться соперниками. (В этом смысле последняя инициатива Google, разрешившего подтверждать аккаунты на Google с телефона, выглядит как попытка расширить свою базу за счет телефонных систем.) С другой стороны, есть такие стартапы, как Sxip, сделавшие ставку на интегрированную личность (см. статью Берда Киви в этом номере. – В.Г.) и пытающиеся создать распределенное и простое решение, на основе которого можно будет построить единую подсистему для всего Веба 2.0. На рынке календарных справочников есть EVDB, пытающийся на базе wiki-подобной архитектуры построить крупнейший совместно пополняемый календарь. И хотя сегодня еще рано делать прогнозы, очевидно, что к появлению приложений нового поколения приведут те стандарты и решения, которые позволят эффективно обратить определенные классы данных в надежные подсистемы «операционной системы Интернета».
Прежде чем идти дальше, скажем пару слов о пользователях, берегущих свое privacy и право на владение информацией как зеницу ока. Во многих ранних веб-приложениях копирайт учитывался лишь номинально. Так, права на все обзоры, опубликованные на Amazon, принадлежат Amazon, но компания никого еще не преследовала за их републикацию. Однако как только компании поймут, что контроль над данными и есть их главное конкурентное преимущество, то станут стеречь свои данные куда ревностней.
Как успех проприетарного софта привел к рождению движения Free Software, так и усиление роли проприетарных БД уже в следующем десятилетии приведет к рождению движения за Свободную Информацию. Ранние проявления этой тенденции можно увидеть уже сейчас, в таких проектах, как Wikipedia, лицензии Creative Commons, или в программистских проектах типа Greasemonkey (дает пользователям возможность определять, как именно будут отображаться данные на их компьютерах).
//-- Архитектура взаимодействия --// Некоторые системы спроектированы для усиления взаимодействия. Существует три способа создания большой БД. Первый – платить людям за ее составление (Yahoo!). Второй – набрать для той же задачи добровольцев (open-source-проекты). Третий путь открыл Napster. В клиенте Napster по умолчанию загруженная песня была доступна для скачивания другими пользователями сети. Таким образом, каждый пользователь Napster увеличивал ценность распределенной БД. Потом эта же схема была повторена в других P2P-сервисах.
Пользователи могут повысить ценность приложения, но лишь немногие будут делать это добровольно. Поэтому приложения следует проектировать так, чтобы обогащение проекта пользовательской информацией происходило автоматически. Этот момент должен быть частью архитектуры приложения.
Удачная архитектура, возможно, даже больше повлияла на успех открытого софта, чем упомянутые добровольцы. Архитектура Интернета и веба (как и архитектура открытых проектов) такова, что вынуждает нас автоматически повышать их ценность во время использования. У каждого из таких проектов – небольшое технологическое ядро, четкие механизмы расширения и подход, позволяющий любому человеку добавлять новые компоненты, наращивая новые слои «луковицы».
Другими словами, эти технологии демонстрируют сетевые эффекты, просто потому, что они так спроектированы.
Такую архитектуру взаимодействия можно назвать естественной. Но как показал пример Amazon, последовательные усилия (а равно и экономические стимулы – например, партнерская программа) могут создать подобную архитектуру и в системе, которой при обычных условиях это не свойственно.
//-- Конец цикла разработки ПО --// Одной из главных характеристик современных интернет-приложений является то, что они распространяются в виде сервиса, а не товара. Это, в свою очередь, ведет к фундаментальным изменениям в бизнес-моделях компаний-разработчиков.
Компания должна уметь управлять процессами. Искусству разработки приложений должно сопутствовать умение организовать ежедневные операции для поддержки работы этих приложений. Разрыв между софтом-артефактом и софтом-сервисом так велик, что уже сейчас нельзя написать хороший продукт и забыть о нем – его нужно поддерживать ежедневно. Google каждый день прочесывает веб, чтобы обновлять свои индексы, отсекая поисковый спам. Google должен каждый день обслуживать сотни миллионов запросов, поставляя пользователю не только качественные результаты поиска, но и контекстную рекламу. И неслучайно информация о системном администрировании, обслуживании сетей, балансировке нагрузки и т. п. охраняется Google, пожалуй, даже лучше, чем сами поисковые алгоритмы. Google научился автоматизировать упомянутые процессы, а это – ключевая часть его ценового преимущества перед конкурентами.
Также не случайно, что скриптовые языки – Perl, Python, PHP, а теперь еще и Ruby – играют в жизни компаний Веба 2.0 столь важную роль. Первый вебмастер Sun Microsystems Хасан Шрёдер (Hassan Schroeder) как-то назвал Perl «скотчем Интернета».
Скриптовые языки (презираемые программистами эры софтверных артефактов) – это естественный выбор для системных и сетевых администраторов, поскольку разработчики создают динамические системы, требующие постоянного изменения.
Пользователей нужно воспринимать как соразработчиков – как, например, принято при разработке открытого софта (даже если само ПО вряд ли будет выпущено под открытой лицензией). Максима открытого софта – «выпускай релизы раньше и чаще» – теперь формулируется еще жестче: «бесконечная бета-версия». Программы обновляются ежемесячно, еженедельно и даже ежедневно.
Не случайно на логотипах таких проектов, как Gmail, Google Maps, Flickr, del.icio.us и т. п., словечко «beta» может висеть годами.
Отслеживание поведения пользователей в реальном времени позволяет видеть, какие новые свойства используются и как они используются – и это еще одна ключевая составляющая успеха технологии. Веб-разработчик одного из раскрученных сетевых сервисов отмечает: «мы добавляем два-три новых свойства в разные части сайта каждый день, и если пользователям они не нравятся – мы отказываемся от этих нововведений. Если нравятся – внедряем на всем сайте».
Кэл Хендерсон (Cal Henderson), главный разработчик Flickr, недавно рассказал, что новый билд Flickr появляется каждые полчаса. Это совершенно другая модель разработки! И хотя пока не все веб-приложения разрабатываются с такой экстремальной скоростью, почти у всех цикл разработки радикально отличается от всего, что было в эпоху ПК или клиент-серверов. По этой причине редакторы Zdnet даже пришли к выводу, что Microsoft не удастся победить Google: «бизнес-модель Microsoft построена на предположении, что пользователь обновляет свое компьютерное окружение раз в два или три года. Google же зависит от того, что новенького обнаружит пользователь в своем компьютерном окружении сегодня».
Несмотря на то что Microsoft уже продемонстрировала невероятную способность учиться и в конце концов превосходить своих конкурентов, нет сомнений, что конкуренция заставит Microsoft (и – шире – любую современную софтверную компанию) превратиться в компанию совершенно другого типа. Истинным компаниям Веба 2.0 будет проще, поскольку их не тянут назад старые подходы (а также сопутствующие бизнес-модели и источники прибыли).
//-- Упрощенные модели программирования --// Как только идея веб-сервисов стала au courant, в схватку вступили большие компании, выкатившие сложные наборы веб-сервисов, позволяющих разрабатывать надежные среды программирования для распределенных приложений.
Успех веба во многом обязан тому, что большая часть теоретических построений, посвященных гипертексту, была отброшена в пользу простых прагматичных решений, которые и послужили основой идеальной конструкции. RSS стал, возможно, единственным широко распространенным веб-сервисом именно потому, что он прост. А сложные корпоративные наборы все еще ждут своего часа.
Amazon предоставляет два типа веб-сервисов. Первый не отступает от формализма SOAP (Simple Object Access Protocol), тогда как второй просто осуществляет передачу XML через HTTP с помощью упрощенного подхода, известного как REST (Representational State Transfer). Веб-сервисы первого типа используются для B2B-транзакций (например, между Amazon и розничными партнерами), но 95 процентов всех операций проводится с помощью REST.
То же стремление к простоте наблюдается и у других «настоящих» веб-компаний. Возьмем Google Maps. Простой AJAX-интерфейс был быстро «разобран» хакерами, которые затем сумели использовать поставляемые данные для организации новых сервисов.
Картографические веб-сервисы были доступны и раньше: от GIS-вендоров (ESRI, например) и таких компаний, как MapQuest и Microsoft MapPoint. Однако Google Maps завоевал мир, благодаря своей простоте. И если экспериментирование с данными веб-сервисов от «настоящих» вендоров требовало заключения контракта, то Google Maps был спроектирован так, что данные можно было сразу использовать в своих целях – и хакеры очень скоро научились это делать.
Отсюда можно вынести несколько важных уроков:
Поддерживайте упрощенные модели программирования и вы получите свободно-связанных партнеров. Проблема корпоративных веб-сервисов в том, что они предполагают жестко оговоренное партнерство. Во многих случаях это оправданно, но зачастую самые интересные приложения могут быть построены на весьма хрупкой основе.
Думайте о синдикации, а не о координации. Простые веб-сервисы – как RSS или сервисы на базе REST – занимаются синдикацией данных, не пытаясь контролировать, что происходит с информацией на другом конце цепочки. Идея сквозной передачи данных является одной из базовых идей самого Интернета.
Проектируйте с учетом возможных переделок и улучшений. Системы, подобные вебу, RSS и AJAX, сходны тем, что особых помех для их повторного использования не существует. Большая часть полезного софта находится в открытых исходниках, а если и нет, то имеется не так уж много способов защитить свою интеллектуальную собственность. Стандартная браузерная функция «посмотреть исходник» позволяет любому человеку скопировать любую веб-страницу. RSS был спроектирован для того, чтобы пользователь мог читать контент тогда, когда это удобно ему, а не поставщику информации. Самые успешные веб-сервисы – это, как правило, такие службы, которые могут быть изменены неожиданным для их создателей образом (some rights reserved).
В оригинале статья Тима О’Рейли была опубликована за неделю до начала конференции Web 2.0 (web2con.org, проводилась с 5 по 7 октября 2005 года), и, несомненно, автор хотел подогреть интерес к этому событию, что ему прекрасно удалось. Но у Веба 2.0 есть и другая, темная сторона.
Многие наблюдатели отмечают, что сейчас рынок находится в состоянии ожидания. Компаний, говорящих о Вебе 2.0, появляется все больше. Штат фирм, занимающихся разработкой новых веб-решений, растет. Говорить о Вебе 2.0 модно, заниматься им – престижно. И не исключено, что в самое ближайшее время мы увидим второе пришествие доткомов – только взлет новых компаний будет короче, а падение быстрее. Дело еще и в том, что далеко не все инфраструктурные изменения, о которых пишет Тим, могут быть легко конвертированы в деньги. Идея сервисов, построенных на сервисах, которые, в свою очередь, построены на других сервисах, и так далее до бесконечности (mash-up), может, и не плоха, но при всех достоинствах конечного продукта нельзя забывать, что держится он, в общем-то, на честном слове и будет функционировать только до тех пор, пока поставщики сервисов продолжают их предоставлять. Собственных активов у таких компаний, как правило, практически нет.
Тим О’Рейли почти не касается финансовых рисков – его больше увлекают технологические аспекты. Но некоторые венчурные капиталисты, следящие за становлением новой концепции, высказываются более чем осторожно: Рик Сигел пишет о том, что само по себе применение новых технологий вовсе не гарантирует возврата инвестиций; Фред Уилсон признается, что уже вкладывать опасно даже в первые производные (производные от компаний, владеющих интеллектуальными или иными активами), а сейчас предлагается инвестировать во вторые производные (сервис, объединяющий, допустим, Google Maps и delicious, является второй производной, поскольку и Google, и delicious [в меньшей степени] являются в данном случае не владельцами исходных данных, а посредниками).
//-- Собираем по-новому --// Упрощенные бизнес-модели – это естественный спутник упрощенного программирования и свободного партнерства. В Вебе 2.0 повторное использование не осуждается. Новые сервисы, такие как housingmaps.com, являются простым совмещением двух существующих служб. У Housingmaps.com нет бизнес-модели (пока), но множество небольших сервисов живет за счет Google AdSense (или, возможно, амазоновских программ, или – и тех и других).
Эти примеры иллюстрируют еще один ключевой принцип Веба 2.0 – то, что мы называем «сборка по-новому». Когда вокруг столько дешевых компонентов, вы можете создавать нечто ценное, просто собирая из них неожиданные или эффективные комбинации. Точно так же, как ПК-революция дала «путевку в жизнь» компаниям, собирающим компьютеры из обычной комплектухи, Веб 2.0 предоставляет возможности компаниям, собирающим свои приложения из чужих компонентов.
//-- Софт работает поверх устройств --// Еще одна особенность Веба 2.0, которая заслуживает упоминания, это то, что теперь веб не привязан к платформе ПК. Перед уходом из Microsoft разработчик Дэйв Стац (Dave Stutz) дал своему бывшему работодателю совет: «обеспечить высокую прибыль способно программное обеспечение, работающее поверх устройств».
Конечно, так можно охарактеризовать практически все веб-приложения. В конце концов, простейшее приложение требует для своей работы по крайней мере два компьютера: один – для хостинга сервера, второй – для браузера. И как мы уже обсуждали, развитие веба как платформы расширяет эту идею до синтетических приложений, составленных из сервисов, которые предоставляются множеством компьютеров.
Но – с Вебом 2.0 такое случается частенько – «2.0» означает не что-то совершенно новое, а развитие и углубление существующих концепций. И фраза Стаца поясняет, как нужно проектировать приложения для новой платформы.
В настоящий момент лучшим примером нового подхода является iTunes. Это приложение без проблем соединяет карманное устройство с грандиозной веб-базой, оставляя ПК роль локального кэш-сервера и контрольной станции. Попытки донести веб-контент до мобильных устройств, разумеется, предпринимались и раньше, но связка iPod/iTunes является одним из первых приложений, соединяющих в единую цепочку сразу несколько устройств. Другой хороший пример подобного подхода – TiVo.
iTunes и TiVo также демонстрируют другие ключевые принципы Веба 2.0. Они не являются веб-приложениями сами по себе, однако используют мощь веб-платформы, превращая веб в незаметную, практически невидимую часть своей инфраструктуры. TiVo и iTunes – сервисы, а не коробочные приложения (хотя в случае с iTunes это не совсем верно – программа вполне может использоваться и как коробочный софт, для управления пользовательскими данными). Более того, и TiVo, и iTunes пытаются использовать коллективный разум, хотя в обоих случаях эти эксперименты натыкаются на сопротивление со стороны ИС-лобби[ИС – здесь: интеллектуальная собственность. – Прим. ред.]. В iTunes архитектура взаимодействия пользователей довольно ограничена, хотя последние нововведения в области поддержки подкастинга несколько изменили положение дел в лучшую сторону.
Все это одна из областей Веба 2.0, в которой мы ожидаем тем больших изменений, чем больше устройств подключено. Какие приложения появятся, когда все наши телефоны и автомобили будут не только потребителями информации, но и ее поставщиками? Мониторинг пробок в реальном времени, флэш-мобы, любительская журналистика – вот только несколько первых ласточек, намекающих нам на возможности новой платформы.
//-- Богатые пользовательские интерфейсы --// Еще со времен браузера Viola (1992) у всех на устах слово «апплеты» и прочие способы доставки активного контента через браузер. Появление в 1995 году Java тоже сопровождалось упоминанием апплетов. JavaScript – а затем и DHTML – были представлены публике как простые пути для выполнения приложений на стороне клиента и обогащения пользовательских интерфейсов. Несколько лет спустя Macromedia использовала термин Rich Internet Applications (впрочем, им не гнушалась и Laszlo Systems – разработчик флэш-решений в открытых исходниках), чтобы подчеркнуть возможности Flash не только в области доставки мультимедиа-контента, но и как основы для построения GUI-интерфейсов.
Однако потенциал веба для постройки полномасштабных приложений не принимали всерьез до появления Gmail, за которым последовал Google Maps. В обоих случаях веб-приложения предлагали богатые пользовательские интерфейсы и почти неотличимую от ПК-приложений интерактивность. В одном из своих эссе Джесс Джеймс Гаррет из веб-студии Adaptive Path «окрестил» использованные для этой цели технологии AJAX. Он писал:
Сам AJAX не является технологией. Это несколько вполне самостоятельных технологий, работающих вместе. AJAX включает в себя:
обработку стандартов XHTML и CSS;
динамическое отображение и интерактивное использование DOM (Document Object Model);
взаимный обмен и управление данными посредством XML и XSLT;
асинхронное извлечение данных с помощью XMLHttpRequest;
и JavaScript, объединяющий все это вместе.
AJAX также является ключевым компонентом таких приложений, как Flickr, приложений от 37signals, Gmail и Orkut (Google). Мы вступаем в беспрецедентный период нововведений в пользовательских интерфейсах, раз уж разработчики, наконец, научились создавать веб-приложения, ничем не уступающие в этом аспекте ПК-приложениям.
Интересно, что многие из новых возможностей, на самом деле, не являются новыми. Еще в конце 90-х гг. и Microsoft, и Netscape понимали, что это достижимо, но их битва привела к несовместимости стандартов. И только после того, как Microsoft выиграла «браузерные войны» и у нас де-факто остался один-единственный стандарт браузера, создание таких приложений стало реальным. Firefox, конечно, возродил конкуренцию на рынке браузеров, но пока что мы не видим разрушительной войны стандартов, которая задержала наше развитие в конце XX века.
В ближайшие несколько лет появится множество новых веб-приложений – как абсолютно новых, так и переделок старых ПК-приложений под веб. Любая смена платформы создает новые возможности для захвата лидирующего положения на рынке, даже если этот рынок казался полностью устоявшимся.
Gmail уже продемонстрировал несколько интересных нововведений в области электронной почты, комбинируя сильные стороны веба (доступность из любой точки, нетривиальные возможности работы с данными, возможность поиска) с пользовательскими интерфейсами, сравнимыми по удобству с ПК-интерфейсами. Между тем почтовые клиенты на платформе ПК усовершенствуются в другом направлении, добавляя в свой интерфейс, например, возможности инстант-мессенджера и датчика онлайнового присутствия. Как далеко зайдут интегрированные клиенты, объединяя лучшее, что есть в e-mail, IM и мобильной телефонии (используя VoIP, чтобы добавить голосовые возможности)? Гонка началась.
Легко увидеть, как Веб 2.0 меняет привычные «адресные книги». Адресная книга для Веба 2.0 использует локальную базу контактов на ПК или телефоне для запоминания тех контактов, которые вы специально отметили для сохранения. Между тем Gmail-подобный веб-агент помнит все сообщения, полученные или отосланные, все адреса, все телефоны и на основе эвристики социальных сетей пытается решить, какие именно альтернативы вам предложить, когда в локальной базе нужного контакта нет. При отсутствии нужного ответа система может задействовать социальную сеть большего масштаба.
Текстовый процессор для Веба 2.0 будет поддерживать совместное редактирование в стиле Wiki. Но кроме этого он же предоставляет широкие возможности форматирования, которое мы привыкли ожидать от ПК-приложений. Writely – хороший пример подобного приложения, хотя мэйнстримом такой подход пока не назовешь.
Но революция Веб 2.0 не ограничивается ПК-приложениями. Salesforce.com демонстрирует, как использовать веб для распространения ПО в качестве корпоративного сервиса (CRM).
Благодаря новым игрокам потенциал Веба 2.0 будет раскрыт полностью. Но успеха добьются те компании, которые не только научатся строить новые интерфейсы, но и (благодаря архитектуре взаимодействия) получат в свое распоряжение совместно подготовленные данные.
//-- Что должны уметь компании в Вебе 2.0 --// Мы отметили некоторые принципиальные особенности Веба 2.0, но каждый приведенный пример иллюстрировал лишь одни положения, тогда как другие при этом упускались. Давайте попробуем суммировать самые важные моменты для компаний Веб 2.0:
недорого масштабируемые сервисы, а не коробочное ПО;
контроль над уникальными, сложными для воссоздания источниками данных, которые могут быть обогащены за счет пользователей;
отношение к пользователям как к соразработчикам;
привлечение коллективного разума;
охват «длинного хвоста» за счет самообслуживания пользователей;
софт должен работать поверх устройств;
упрощенные модели разработки пользовательских интерфейсов и упрощенные бизнес-модели.
И когда вы в следующий раз услышите про Веб 2.0 – сверьтесь с этим списком. Чем больше пунктов выполнено, тем больше компания соответствует концепции Веба 2.0. Впрочем, не стоит забывать, что истинное мастерство в одной из областей может оказаться выгоднее, чем небольшое умение в каждой из семи.
//-- Подходы к проектированию Веба 2.0 --// Длинный хвост
Маленькие сайты производят большую часть контента; узкие ниши потребляют большую часть приложений. Совет: поощряйте самостоятельность пользователей и обеспечивайте алгоритмическое управление данными со своей стороны – это позволит охватить веб целиком, не только центр, но и края, не только голову, но и хвост.
Данные – это следующий Intel Inside
Приложения все сильнее зависят от данных. Совет: для получения конкурентного преимущества отыщите уникальный, трудный для воссоздания источник данных.
Ценность, принесенная пользователями
Ключ к успешной конкуренции на рынке интернет-приложений – обогащение собственных данных силами пользователей. Совет: не ограничивайте свою «архитектуру взаимодействия» разработкой софта. Явно и неявно вовлекайте пользователей в процесс улучшения вашего приложения.
Сетевые эффекты по умолчанию.
Немного найдется пользователей, которые по собственной инициативе станут вам помогать. Совет: сделайте так, чтобы обогащение ваших данных было побочным эффектом использования приложения.
Some Rights Reserved
Защита интеллектуальной собственности ограничивает повторное использование и препятствует экспериментам. Совет: если бенефиты обеспечиваются совместным использованием, обеспечьте настолько слабую защиту вашей ИС, насколько это возможно. Проектируйте с учетом «улучшабельности» и «переделываемости».
Бесконечная бета
Когда устройства и программы подключены к Интернету, приложения перестают быть артефактами и превращаются в сервисы. Совет: не пытайтесь упаковать новые свойства в релиз, вместо этого добавляйте их по мере готовности в текущую версию. Сделайте из своих пользователей тестеров, способных откликнуться в реальном времени, и следите за их реакцией.
Кооперация вместо контроля
Приложения Веба 2.0 построены как сеть сервисов, работающих совместно. Совет: открывайте интерфейсы веб-сервисов, обеспечьте синдикацию контента и используйте чужие веб-сервисы, если это нужно. Используйте упрощенные модели для программирования для построения свободно-связанных систем.
Программы работают поверх устройств
ПК больше не являются единственным устройством, на котором могут выполняться интернет-приложения, а приложение, ограниченное одним устройством, менее ценно, чем его универсальный конкурент. Совет: проектируйте приложение так, чтобы оно могло работать поверх карманных устройств, ПК и интернет-серверов.
ФМ-ВЕЩАНИЕ: Смена ориентации
Некоторые из моих старых московских и региональных знакомых, давно занимающихся перепродажей коробочного софта конечным клиентам, последние год-два начали жаловаться на резкое падение реальных доходов, несмотря на постоянный подъем общих оборотов. И в тендерах стало участвовать больше компаний, и демпинг конкуренты устраивают. Клиенты предпочитают все чаще отовариваться в Москве, чем в регионе, видимо, по привычке к всеобщей централизации – в центре и сок натуральнее, и шоколад слаще. Маржа на некоторые программы (особенно от Microsoft) упала до 1—2%. Производители программ стали, в свою очередь, сокращать длинную цепочку перепродавцов, ведя целенаправленную политику сортировки дистрибьюторских и дилерских сетей. На вендорских партнерских конференциях начали появляться термины: «правильный дистрибьютор», «правильный реселлер».
Выход, конечно, нашелся. Пора начать добавлять стоимость к продаваемому софту в виде услуг по его установке и сопровождению, созданию комплексных проектов по безопасности и т. д. Собственно, открытия в этом никакого нет. Системные интеграторы и франчайзи «1С» жили так изначально. Одни зарабатывали в основном на проекте и продаже железа, добавляя продажу софта как дополнительную стоимость; другие зарабатывали на услугах, связанных с обучением и внедрением «1С». То есть пора сменить профессиональную ориентацию с ранее беспроигрышного перемещения к клиенту и продажи ему коробки с софтом (box-moving) на оказание ему услуг (VAR – value added reseller). Вендоры начали вводить специальные партнерские категории. К примеру, у Microsoft такая категория называется «партнер по управлению лицензиями».
Но оказалось, что к зарабатыванию денег на открывшемся безграничном пространстве нестройная армия нескольких тысяч фирм (стоит только заглянуть в компьютерный справочник), как всегда, была совершенно не готова. Почему безграничном? Потому, что в отличие от ситуации за рубежом, которая описанна в книге Карра, обсуждаемой в последнее время в прессе, наш бизнес явно не стал заложником IT. Мы еще от компьютеризации к автоматизации до конца не перешли, куда уж нам заложниками становиться. Реально работающих автоматизированных систем очень мало. Дальше изымания денег за проект и установку сети из компьютеров многие компьютерные фирмы и не проходили. Ни в коем случае не хочу обвинять всех поголовно. Конечно, есть много компаний, давно и прочно обосновавшихся на рынке услуг. Они-то раньше всех и начали учить сотрудников. Но по-прежнему, особенно в регионах, можно наблюдать бегающих по городу умельцев-дилетантов, которые за небольшую мзду почистят ваши компьютеры от вирусов, восстановят данные, поадминят сеть и подключат к Интернету. Есть, конечно, IT-службы в крупных коммерческих компаниях, но и тут не все безоблачно. CIO бродят с места на место, поднимая себе зарплату, а за плечами оставляя компьютерную сеть на сотню посадочных мест, в которой сотрудники и сотрудницы вместо «Лексикона» теперь гордо используют Word, Excel и Internet Explorer.
Причем с фирмами, которые уже научились оказывать реальные услуги по консалтингу и проектированию, тоже не все просто. Только самые продвинутые из них пишут адекватные технические задания на проект и представляют обоснованную почасовую калькуляцию на свою работу. Все остальные рассчитывают цену «потолочным» способом, возведя глаза к потолку офиса. Ну и конечно, о стандартах на документацию сопровождения и руководство пользователя многие и слыхом не слыхивали. Что уж говорить тогда о стандартах на предоставление услуг. Когда мы под свой проект четыре года назад выбирали дата-центр для аутсорсинга, обнаружилось всего два подходящих по качеству сервиса и адекватному пониманию процесса. Да, без сомнения, ситуация несколько улучшилась, но попробуйте посчитать, сколько системных администраторов и CIO, сколько контрагентов по автоматизации своей собственной компании вы сменили за последние пять лет, и, скорее всего, пальцев на одной руке у вас не хватит.
Вспоминаются цифры еще советских времен о тружениках сельского хозяйства в Америке. Фермеры составляли только 2% промышленности. Только они производили сырье, все остальные занимались переработкой в готовую продукцию, доставкой и продажей ее конечному потребителю. Так и в нашей отрасли: коробки и лицензии – это только сырье, производимое вендорами, пазлы, из которых еще надо собрать готовые системы, внедрить их и обучить ими пользоваться. Коробки – это удел дистрибьюторов и сетевых супермаркетов, где они будут стоять на полках и откуда их в большой корзинке принесут в офис. И что дальше с ними делать? – вы должны спросить у продавцов услуг с хорошей репутацией, правильной ценой и реально внедренными проектами в портфолио.
ТЕХНОЛОГИИ: Личность в версии номер два
Многие, наверное, помнят ужасные события, случившиеся с героиней популярного фильма «Сеть», который вышел на экраны десять лет назад. Уже тогда можно было говорить о похищении личности почти всерьез, однако в реальности ваша личность – даже в таком выхолощенно-меркантильном смысле – мало кого интересует. По крайней мере, кардинг процветает, а вот торговлю виртуальными «мертвыми душами» еще не наладили. Спроса нет. Статья Бёрда Киви посвящена новой инициативе Identity 2.0 (какая-то мода пошла на вторые версии – может, и нам в «КТ» что-нибудь такое придумать), но сама востребованность этой инициативы вызывает сомнения. Разумеется, всегда есть и будут люди, которые стараются жить off the grid – не оставляя лишних следов, не выкладывая личную информацию в Сеть, ничего не покупая в онлайне. Но заставит ли их новая инициатива выйти из тени? Вряд ли.
Так ли их много, чтобы стоило беспокоиться? Да тоже, в общем-то, вряд ли. Плохо ли покупают люди в онлайне? Да как раз нет, вполне хорошо покупают – Amazon, по крайней мере, не жалуется.
Так ради чего все это? Пока создается впечатление, что активисты Identity 2.0 придумали новую делянку, на которой – если удастся ее раскрутить – поначалу можно будет хорошо заработать. А может, это даже и не они, а какие-нибудь злоумышленники, похитившие личности вполне достойных людей, – в конце концов, откуда нам знать, что они те, за кого себя выдают? – В.Г.
Кражи информации из гигантских баз данных, накапливающих критично важные персональные сведения о миллионах людей, начали происходить примерно тогда же, когда такие компьютерные картотеки только-только стали появляться. Однако с некоторых пор это явление, получившее название «кража личности» (identity theft), обрело столь массовый размах, что в результате действий злоумышленников разом могут оказаться скомпрометированы (по крайней мере, потенциально) уже не сотни тысяч и даже не миллионы, а десятки и сотни миллионов человек. Для каждого из них становится абсолютно реальной опасность, когда мошенник присваивает себе без их ведома любой набор из важных атрибутов личности – имя и дату рождения, место проживания, номера соцстрахования, паспорта, кредитной карточки и т. д. – и без особого труда может не только истощить банковский счет жертвы, но и сильно, порой необратимо испортить репутацию человека.
Беспокойство в народе, естественно, растет. В ответ компании делают успокаивающие заявления об укреплении защиты сетей, о вводе лучших алгоритмов шифрования и разворачивании более совершенных средств корпоративной безопасности – все во имя «защиты ценных данных» клиентов. Законодатели тоже пытаются проявить заботу о сохранности персональной информации граждан, для чего принимают новые законы, призванные повысить ответственность виновных сторон за кражи личности. В совокупности все это ведет к ощутимому росту затрат на ИТ-инфраструктуру, шумным разбирательствам в прессе или суде и, выражаясь фигурально, публичной порке провинившихся. Однако постоянным унылым фоном для столь кипучей деятельности остаются негромкие, но твердые предупреждения, регулярно звучащие как из уст юристов корпораций, так и специалистов по компьютерной безопасности: «Мы не можем гарантировать, что ничего подобного впредь не случится»…
Но имеется, однако, и существенно иная точка зрения на данную проблему. Согласно ей, традиционные вопросы – относительно «хищения данных», «защиты данных» и прочих проблем централизованных баз – в принципе ставятся неверно. На самом же деле надо ставить совсем другой вопрос: а зачем вообще корпорациям хранить всю эту информацию о своих клиентах? С какой стати компания, ведающая кредитными картами, хранит у себя личные номера соцстрахования? Действительно ли какому-нибудь онлайновому магазину требуется собственная база с номерами кредитных карт покупателей? Нельзя ли сделать так, чтобы каждая компания оставляла у себя лишь ту информацию, которую позволит сохранить ее владелец? И почему, наконец, нельзя оставлять в базах лишь минимум данных, достаточный для ведения бизнеса?
На сегодняшний день существует весьма обоснованная концепция, дающая конкретные ответы на все поставленные (а также на многие непоставленные) вопросы. Она получила название «Личность 2.0» (Identity 2.0). Ключевое звено «Личности 2.0» – это идея о том, что всякий человек, вступая в онлайновую жизнь, должен иметь полный контроль за тем, что знают о его персональных данных все остальные.
Пока же, как известно, дела обстоят с точностью до наоборот. Всякий, кто хоть раз обращался в онлайновый магазин, знает, что даже для самой пустячной покупки следует поделиться с продавцом весьма чувствительной информацией – от имени и домашнего адреса до номера кредитной карты и девичьей фамилии матери. Причем как только эти данные отправлены в Сеть, у их владельца уже нет никаких средств проконтролировать их дальнейшую судьбу.
В реальной жизни при аналогичных ситуациях все происходит иначе. Это различие наглядно проиллюстрировал Дик Хардт (Dick Hardt), один из ведущих евангелистов движения «Личность 2.0», а по основному роду занятий – глава канадской фирмы Sxip Identity (ее каламбуристое название можно перевести, например, как «прячем личность», поскольку отсутствующее в английском языке слово «sxip» принято читать как «skip», то есть «прыгать, пропускать, скрываться»). Допустим, человек зашел в винный магазин. Если он выглядит очень молодо, то продавец, дабы не нарушать запрета на продажу алкоголя несовершеннолетним, просит показать водительские права (или другой распространенный документ с фотографией и датой рождения), и, если возраст позволяет, покупатель без проблем получает свою выпивку.
Продавцу нет никакого дела до персональных данных покупателя. Он не заносит его имя в журнал, не проверяет по какому-нибудь тайному реестру и не связывается с управлением дорожной полиции, выдавшим автомобильные права. Единственное, что требуется продавцу, – это убедиться, что человек, предъявивший документ, похож на того, который изображен на вклеенной в документ фотографии, а дата рождения подтверждает, что этот человек имеет право покупать спиртные напитки. Выдавший же документ орган не имеет ни малейшего понятия, где он предъявляется и кто его рассматривает.
Так вот, если повсеместно применяемую в Сети концепцию цифровой личности перенести в реальную жизнь, то любая покупка будет проходить по такому абсурдному сценарию: тщательное переписывание продавцом всех данных из прав или паспорта каждого покупателя, сверка номеров по огромным кондуитам уже украденных и поддельных документов, контрольные звонки в органы внутренних дел… И все это ради продажи какой-нибудь прищепки для белья.
Эта статья посвящена описанию самой концепции новой сетевой идентификации, но проблема нового подхода еще и в том, что компаний, работающих в этом направлении, несколько, и реализация у каждой своя. Так что будущим участникам рынка, кроме всего прочего, предстоит решать проблему прозрачной совместимости разных форматов – иначе вся эта затея не будет иметь никакого смысла.
В качестве разумной альтернативы Хардт и его единомышленники предлагают систему, которая будет более прозрачна для пользователей, поскольку в ее центре находится человек, сам управляющий размещением персональных данных. Аналогично тому, как в реальном мире распределенные по разным местам документы контролируются самим владельцем.
Согласно новой концепции, онлайновый магазин вроде Amazon.com уже не сможет потребовать с вас тучу всевозможной персональной информации до того, как предоставить личный аккаунт и продать книжку или CD. Вместо этого именно вы, как потенциальный покупатель, предложите магазину лишь ту информацию, которую считаете возможной раскрыть, а продавец на основе лишь этих данных должен решить, принимать или отвергнуть ваш заказ. Кроме того, в концепции Sxip и других фирм, работающих над реализацией Identity 2.0, предусмотрено, чтобы продавец подробно рассказал покупателю, что он будет делать с полученными о данными. При такой постановке дела, если покупателям не понравятся условия, предлагаемые одним продавцом, они могут купить нужную вещь в другом месте.
Нетрудно понять, что коль скоро новая концепция цифровой личности концентрируется именно вокруг ее владельца, а не в структурах, предоставляющих услуги, это может в корне изменить многие привычные формы бизнеса. Для демонстрации этой идеи часто прибегают к примеру проката автомобилей. В настоящее время, как известно, персональные данные, предоставляемые клиентом одной прокатной фирме, обычно не передаются другим фирмам-конкурентам. Однако для самого клиента нет особых выгод от того, чтобы быть «пленником» единственной фирмы – всегда полезно иметь выбор. А потому для него куда привлекательнее был бы иной вариант. Скажем, в соответствующем месте Сети вывесить свои личные ориентировочные данные и объявить всему рынку: «Я буду в городе N в такие-то числа месяца; мне нужен внедорожник; бензин покупаю сам; страховка не нужна; платить буду столько-то»… А затем посмотреть, что будет происходить.
Новые системы, работающие над составлением «профиля Identity 2.0», ориентированы на сценарии, когда сам пользователь будет определять набор публикуемых сведений о себе, а компании будут искать подходящих им по параметрам клиентов. Предполагается, что в таких условиях, когда компаниям невольно придется конкурировать за лояльность клиента, обслуживание покупателей неизбежно улучшиться, а рынок станет более эффективным.
Подобная картина, ясное дело, фактически выворачивает наизнанку сформировавшиеся на сегодня формы онлайнового бизнеса. Уже лишь по этой причине концепцию «Личности 2.0» можно было бы расценивать как утопию – если бы за ней не стояли весьма солидные фигуры. Такие, скажем, как Microsoft. Эта корпорация занимается проблемами онлайнового управления личностью достаточно давно. Ее «первый блин» в этой области именовался Passport и вышел, как часто бывает, комом. По мнению наблюдателей, проект Passport, пытавшийся объединить под одним аккаунтом (иначе говоря, всего лишь с одной парой логин/пароль) доступ ко всем мыслимым в Сети сервисам, закончился крахом. Microsoft с такой оценкой, правда, категорически не согласна, поскольку ныне в системе Passport насчитывается около двухсот миллионов работающих аккаунтов, что, разумеется, трудно назвать крахом. И в то же время компания признается, что почти все эти аккаунты работают исключительно в рамках ее собственной сети MSN. Формулируя этот факт иначе, можно констатировать, что чрезвычайно мало людей решились доверить корпорации-гиганту все свои персональные данные для централизованного хранения.
Как ни странно, Microsoft пока не только не пытается ввести собственный формат, но даже выступает в роли «великого примирителя». В своем блоге Ким Кэмеронпишет, что разрабатываемая корпорацией система InfoCards является метасистемой, которая позволит работать и со Sxip, и с Liberty, или с какой-нибудь другой реализацией Identity 2.0.
Практически все новые игроки на этом бизнес-поле постарались учесть допущенные ошибки и ныне дружно выступают за распределенные системы хранения, дающие возможность пользователям самим размещать фрагменты своих персональных данных в тех местах, где они желают. Внимательно относятся к новым тенденциям и в Microsoft. Компания разрабатывает сейчас идейно новый вариант системы Passport, получивший название InfoCards и ожидаемый к массовой реализации в рамках следующего поколения ОС Windows. Нынешнего руководителя микрософтовского подразделения Identity Management Кима Кэмерона (Kim Cameron) называют одной из самых влиятельных фигур в движении Identity 2.0. Он твердо и последовательно выступает за новую концепцию цифровой личности, сконцентрированной вокруг пользователя.
Блог Кэмерона можно рекомендовать как одну из наиболее удачных стартовых площадок для всех, кто хотел бы поближе познакомиться с проблематикой и текущим состоянием «Личности 2.0». Здесь можно узнать о людях и компаниях, занятых разработкой концепции, а также ознакомиться с базовыми идеями, подробно изложенными в статях (рекомендую, например, «Законы цифровой личности», www.identityblog.com/stories/2004/12/09/thelaws.html
Для общего представления об уровне разработки приведем базовые понятия, на которых выстраивается Identity 2.0.
Интегрированная личность (federated identity) – это инфраструктура, заставляющая средства безопасности следовать за транзакцией купли-продажи. Инфраструктура выстраивается так, что делает личность, ассоциированную с транзакцией, «переносимой» между неоднородными доменами безопасности.
Метасистема личности (identity metasystem) – более новая концепция, родившаяся в Identity-сообществе вокруг, главным образом, блога Кима Кэмерона. Вкратце – это концептуальный фон, который позволит людям осуществлять контроль за тем, какие атрибуты или свидетельства об их личности следует объявлять и/или хранить. Среди таких атрибутов и свидетельств может быть все, что угодно, – от даты рождения и номера кредитной карты до любимого цвета или клички домашнего попугая. Речь идет о некоей структуре данных для индивидуального контроля и предоставления информации, идентифицирующей личность. Собранные в единый комплекс, интегрированная личность (инфраструктура) и метасистема личности (контроль и предоставление) обеспечат человека средствами самостоятельного управления своей цифровой личностью в таких формах, которые пока недоступны.
Сегодня, когда мы покупаем что-то в Amazon, магазин запрашивает, получает и хранит наш номер кредитной карты. Если же получит распространение новая концепция «Личности 2.0» (кому-то, быть может, приятнее слышать «метасистема интегрированной личности»), то покупатель, в ответ на запрос, разрешит магазину обратиться за одноразовым использованием кредитной карты. Это разрешение магазин предоставит компании, ведающей кредитной картой покупателя, а компания переведет со счета соответствующую сумму. В итоге «Амазону» при данном сценарии вообще не надо хранить (и даже видеть) номер кредитной карты.
Будучи реализованной в массовом порядке, такая система гораздо ближе подойдет к «идеальной» электронной коммерции, которая защищает как клиентов, так и участвующие в сделках организации. А главное, эта схема на принципиально иной основе решает проблемы с защитой персональных данных. Конечно, «Личность 2.0» вряд ли сможет стать чудо-лекарством от всех болезней онлайновой торговли. Многие из сегодняшних угроз безопасности, вероятно, никуда не исчезнут. Хотя бы потому, что всякие данные, передаваемые в линию, потенциально подвержены хищению, потере или манипуляциям. И цифровая личность человека, как и прежде, будет в безопасности настолько, насколько смогут ее защитить персональные жетоны, логины и пароли. Тем не менее, как было показано выше, новая концепция переносит все эти проблемы на существенно иной уровень и, если бизнес и общество ее примут, обещает более безопасное и управляемое будущее.
Ну а пока «Личность 2.0» не реализована, все разговоры, как и прежде, будут уныло вестись о защите гигантских баз, об укреплении корпоративных мер безопасности и о новых законодательных инициативах. Которые мало что способны исправить.
ОКНО ДИАЛОГА: В режиссуре Goblin’а, конечно!
Год с лишним назад, когда «Компьютерра» первый раз опубликовала интервью с Дмитрием Пучковым, известным также под псевдонимом Goblin, нам и в голову не могло прийти, что намеки нашего собеседника на возможное появление фильмов собственного производства – гораздо больше, чем просто намеки. Поэтому, как только появилась информация о кинопроекте «Зомби в кровавом угаре», мы решили встретиться с Дмитрием еще раз и задать ему ряд вопросов, так или иначе связанных с кинобизнесом и другими ипостасями самого обаятельного Goblin’а России.
Дима, до 31 декабря 2004 года ты выпускал перевод за переводом, но после Нового года все словно обрубило. Что случилось?
– За этот год перевел ровно два фильма: «Бешеные псы» и «Хроники Риддика», оба вышли в дорогих коллекционных изданиях. Все остальное время занят всяким разным в других областях.
Правильные переводы – это, конечно, безумно интересно. Но рано или поздно в жизни появляются вещи еще более интересные. Насмотревшись чужих фильмов, мне, к примеру, захотелось реализовать мечту детства – снять свой собственный фильм. Получил предложение настрочить три книжки про эпопею «Братва и кольцо». Записался в спортивный кружок. Вот этим сейчас и занят. На остальное физически не хватает времени.
Но ведь была еще история с переводом «Отряда Америка», верно?
– Да, было дело. Проект, так сказать, всероссийского масштаба и совсем другого уровня, нежели крики в микрофон сидючи в кладовке[Это вовсе не оборот речи: все свои фильмы Дмитрий озвучивал именно в кладовке собственной квартиры].
Расскажи о ней поподробнее.
– Мультфильм «Отряд Америка: Всемирная полиция» – продукт специфический, изготовленный специфическими же творцами, Треем Паркером и Мэттом Стоуном. Мультик «South Park», наверно, видели все – вот, это их работа.
На сей раз они вместо «вырезанных из бумажек» фигурок попользовали исключительно дурацких кукол-марионеток, висящих на веревках. Марионетки ничуть не снизили накал идиотии, а в сценах кукольного секса – подняли до небес. Как у авторов заведено, мультик насыщен ненормативной лексикой и по этой причине нравится далеко не всем.
Естественно, шансы на успех в прокате по России – нулевые: куклы на веревках в комплекте с убогим переводом гарантируют полное отсутствие сборов. Поэтому, извиняй за нескромность, позвали меня, дабы привлечь аудиторию личностью. Раньше для кинопроката ничего не переводил, потому и решил попробовать.
Для кино переводить интересно: налажен тесный контакт с авторами, авторы (ага, лично сами Трей и Мэтт) выдают детальнейшие пояснения, что и как надо понимать, в чем соль шуток, как обыграть «говорящие» фамилии и все такое. Был удивлен: при индивидуальном подходе все сложнее в разы, а тут – все условия созданы. И тем не менее в прокате постоянно какой-то отстой крутят.
Перевод в итоге получился неплохой, хотя и не без огрехов: в процессе перевода американцы не предоставляют видеоряд, а потому не всегда понятно, что имеется в виду. Потом, уже для озвучки, – пожалуйста, но такого качества (чтобы не запиратили), что в движении черно-белых теней на экране вообще что-либо разобрать трудно. Так что пары ошибок избежать не удалось.
В прокат фильм запустили с наговоренным мной «в один голос» переводом, всю нецензурщину – «запикали». С одной стороны, наш человек по строению фразы легко догадается, что именно «запикано». С другой – некоторые диалоги построены так, что в самом важном по смыслу месте надо было «запикивать» два важных для понимания слова из трех. Смысл фразы исчезал напрочь, и потому одно непечатное слово пришлось заменить. В результате крайне жесткие и самые угарные философские рассуждения о смысле бытия слегка утратили оригинальный накал, и побороть это я, увы, не смог.
Ну а потом мультик пошел в прокат (160 копий на Россию, что совсем не мало), а я взял под мышку недублированную копию и помчался по стране с гастролями: Питер, Москва, Екатеринбург, Ростов-на-Дону, Пятигорск, Оренбург. Прибыв на место, большую часть дня метался по телестудиям и радиостудиям, раздавал бесчисленные интервью, а по вечерам «давал сеанс».
Сперва я выбегал на сцену, отвечал на всякие вопросы зала (вопросы стандартные, типа «А почему „Гоблин“?»), давал краткое пояснение происходящему в фильме (объяснял, над чем надо смеяться), а потом переводил вживую и без всяких купюр – детей на просмотры не пускали. Хвастать нехорошо, но народ везде был страшно доволен.
Фанаты, наверное, требовали сказать что-нибудь ласковое в заранее заготовленные диктофоны…
– В общении с незнакомыми людьми ненормативный лексики избегаю. Особенно – в диктофоны.
С фанатами встречался уже по окончании просмотра: в основном подписывал плакаты, раздавал автографы и фотографировался со всеми желающими. Занимался этим добросовестно – «чтобы никто не ушел обиженным». И обиженных не было, два маркера исписал.
Сами по себе гастроли оказались мероприятием, требующим серьезной физподготовки. Многочасовое сидение в аэропортах, прилеты посреди ночи, сон в гостиницах, постоянно в напряжении. Могу только посочувствовать тем гражданам, у которых гастроли – работа. Там либо умом тронешься, либо сопьешься – если это месяцами продолжается.
В итоге фильм собрал больше шестисот тысяч долларов, что для такого сурового произведения – весьма и весьма приличная цифра.
И все же о фанатах. Насколько твои, скажем так, представления о собственной популярности совпали с реальностью? И понимают ли люди в провинциях разницу между хорошим и плохим переводом?
– Честно говоря, смотреть на все это очень странно. Сидя дома перед монитором, «размах явления» представить невозможно, но народу везде было – шквал. Основная масса, понятно, восемнадцати-двадцатилетние пацаны. Они, как ни крути, самые активные потребители книжек, музыки и фильмов. Однако хватает и людей взрослых.
Что касается понимания тонкостей перевода публикой… нет, это вообще мало кто понимает – что в столицах, что в провинции. Чтобы понять, хороший перевод или плохой, необходимо знать иностранный язык и сравнивать дубляж с оригиналом. У рядового зрителя ни таких знаний, ни таких возможностей нет. Потому народ просто смотрит «в переводе Гоблина».
Отзывы всегда стандартные: «Дмитрий, раньше это [censored] смотреть не мог, а ты из этого [censored] сделал конфетку! Только у нас в России так могут!» Попытки объяснить, что на самом деле просто перевод правильный, – никакого успеха не имеют. Народ даже в мыслях не допускает, что в Голливуде могут снимать интересные фильмы – все, оказывается, придумываю я.
Ну а что до популярности, так настоящая популярность – это когда на улице девки на шею бросаются! А я по улицам хожу спокойно. Вот сниму кино с собой в главной роли – тогда другое дело. А пока так, баловство.
И когда можно ждать DVD с твоим переводом «Отряда»? На лотках видел только пиратскую подделку, где подростки вяло и натужно матерятся в микрофон…
– Не знаю. Студия «Парамаунт», глядя на наших пиратов, решила открыть в России свое производство. Когда это произойдет – мне неведомо. А до тех пор они ничего у нас не выпускают и не продают.
Хорошо, вернемся к началу беседы. Ты перевел два «лицензионных» фильма – «Бешеные псы» и «Хроники Риддика». Отличался ли техпроцесс работы над ними от того, что ты уже отработал на переводах «для друзей»?
– Отличий всего два: для обоих фильмов переведены дополнительные материалы (интервью создателей, любопытные моменты со съемочных площадок), а для «Бешеных псов» я сделал небольшой псевдодокументальный фильм «про фильм». Там собраны факты про Тарантино, сценарий, съемки и в непринужденной манере изложены. Получилось интересно, народу нравится, есть желание развивать.
Поварившись в «легальной» среде, ты можешь, наконец, рассказать – почему официальные переводы бывают столь ужасны?
– Как водится, все предельно просто. Причина номер один – отсутствие грамотных профессионалов-переводчиков. Многим ведь кажется, что если человек учил иностранный язык в неком вузе, то он уже готовый переводчик. Это заблуждение. Но многие граждане из числа так называемых переводчиков этим заблуждением успешно пользуются, раз за разом осчастливливая зрителей плодами своих «профессиональных» трудов.
Собственно перевод состоит из трех этапов. Этап первый: понять, о чем идет речь в оригинале. Это не так просто, как может показаться. Большинство горе-переводчиков затухает уже на этом этапе. Для понимания надо быть хорошо образованным и глубоко эрудированным человеком. Специальное образование плюс познания в мифологии, религии, медицине, юриспруденции, астрономии, физике и пр. – обязательны. В противном случае мимо проедут целые смысловые пласты.
Этап второй: подстрочный перевод. Текст переводится с максимально точной передачей смысла. И это тоже совсем просто. Люди элементарно ленятся заглядывать в словари, искать идиомы, пословицы, библейские высказывания, цитаты знаменитостей.
Третий этап: литературная обработка русского текста с полным сохранением смысла. Собственно, все – перевод готов.
Что получается у нас? В качестве переводчика зазывают гражданина, закончившего что-нибудь пищевое или, скажем, электротехническое, – он много не запросит. Гражданин в меру сил, умения и старания – то есть плохо – переводит. Параллельно с переводчиком трудится укладчик – человек, который подгоняет длину переведенных фраз под иноязычную артикуляцию. Его стараниями текст безжалостно кастрируется, потому что английские фразы в среднем на 25% короче русских. Зато в крупных планах никто не говорит с закрытым ртом.
Далее текст зачастую попадает к литературному редактору – человеку, который иностранного языка не знает. Литературный редактор, руководимый и направляемый глубоко индивидуальным пониманием того, что и как должны говорить актеры, безжалостно правит текст. Ликвидирует пассажи типа «Мы сделали это!», выправляет корявые фразы. Все это, подчеркиваю, при отсутствии знаний иностранного языка и в отсутствие переводчика. Результат трудов косорукого переводчика усугубляется.
Потом за дело берется режиссер озвучки, действующий заодно с актерами. Ему, разумеется, виднее, кому, с каким голосом и с какими интонациями следует дублировать, например, Арнольда Шварценеггера. Именно его заботами с экрана раздается не голос сурового германца, а блеяние очередного балбеса, которому светят только роли в озвучке. Коверкаются и урезаются фразы, снова идет надругательство над смыслом.
Вот так получается «полный дубляж», то есть отдельное произведение, имеющее крайне малое отношение к оригиналу. Я не говорю уже о том, что в дубляже никогда не отображаются акценты персонажей. Например, в мультике «Шрек» Осел – ярко выраженный американский негр, сам Шрек говорит с шотландским акцентом, Кот – с испанским. В дубляже все без исключения говорят как москвичи.
Авторы-изготовители дубляжей своим трудом неизменно гордятся, сообщая в интервью, что только благодаря им эту голливудскую дрянь вообще можно хоть как-то смотреть.
Что имеем в итоге? В итоге имеем извращение смысла и, соответственно, минус пару миллионов долларов сборов в прокате. Так и живем.
По телевизору сказали, что ты снимаешь фильм «Зомби в кровавом угаре». Расскажи, пожалуйста, о чем он и, главное, зачем ты в это ввязался? Ответ на «Клерков» Кевина Смита или «Музыканта» Родригеса?
– Ну я это, смотрю – все кино снимают! Одно тупее другого. Пора, думаю, и мне уже чего-нибудь заснять, чтобы всех затмить интеллектом напрочь. Последней каплей был фильм Ренаты Литвиновой «Богиня: Как я полюбила». Смотрел четыре вечера подряд. Больше двадцати минут за раз не выдерживал: постоянно падал с дивана от дикого хохота, а это больно.
По окончании просмотра решение созрело окончательно: Рената Литвинова создала незабываемый образ милицейского следователя. А мне надо создать не менее яркий образ оперуполномоченного. Ну и тоже чтоб сны были всякие, жуткие преступления и, конечно, зомби. В кровавом угаре. После Ренаты Литвиновой фильм про милицию без зомби не имеет смысла.
Дело новое, совершенно неизведанное. Заниматься интересно, а главное – очень весело.
Это коммерческий проект или, начав зарабатывать с переводов, ты снова придумал что-то исключительно для души?
– Да у меня как-то так получается, что все проекты – коммерческие. И делать интересно, и деньги получать интересно. И душа, что характерно, одинаково радуется и тому и другому.
Зарабатывать я начал, кстати, не с переводов, а с должности библиотекаря в Библиотеке Академии наук РСФСР. Продолжал водителем тяжелых грузовиков, слесарем, гидрогеологом, бурильщиком, токарем, кузнецом, сантехником, таксистом, массажистом, кинологом, оперуполномоченным, журналистом и только потом – продолжил зарабатывать еще и переводами.
В связи с этим чисто компьютерный вопрос. Недавно начали появляться системы, которые снимают все подряд, а потом сами же и монтируют фильм из отснятого материала[Подробнее об этом можно прочитать по адресу offline.computerra.ru/2005/601/222981]. Как ты думаешь, возможно ли со временем появление мегакомпьютера, который, нажатием одной кнопочки, сможет сделать фильм в стиле Гая Ричи, Питера Джексона или, чего доброго, Стивена Спилберга?
– Нет, конечно. Электронный болван – он инструмент, а не созидатель. Ему не то что Спилберга, ему даже меня не победить.
А когда можно ждать выхода фильма на экраны? И о каких экранах идет речь – компьютерных, телевизионных или кино?
– Не раньше, чем в следующем году. Выход, понятно, планируется повсюду: и в кино, и на телевидении, и на разных носителях.
Тут ведь как? Можно снять самостоятельно, «на коленке», без привлечения специалистов/капиталов. Уверен, получится неплохо, но это коммерчески неправильно и невыгодно. Правильно – отхватить бюджет, снимать по-взрослому, а потом окучивать просмотрами всех, до кого можно дотянуться.
Так что снимать надо на пленку и для кинопроката. Остальное – приложится.
А это из-за съемок фильма ты на своем сайте отключил комментарии, лишив тысячи людей ежедневной порции удовольствия от публичной битвы Goblin’а с дураками?
– Тут все несколько сложнее. Будучи жизнерадостным графоманом, я пишу про что-нибудь такое, про что мне интересно, про что не могу не написать. Высказываю свое мнение по неким поводам, как правило, – в сугубо ироническом ключе.
Но тут же набегает толпа каких-то совершенно левых людей, которые немедленно начинают мне рассказывать, что я идиот, что написал полную чушь, что это никому не надо и никому не интересно. Таким образом стадо идиотов получает выход на огромную аудиторию. Зачем предоставлять им такую возможность? Считаю, идиотам это ни к чему. Лучше я один буду там кривляться по-всякому, а кому сильно хочется – пусть пишут письма. Кроме того, с ростом популярности начинают подтягиваться граждане совсем неадекватные – с оскорблениями, угрозами физической расправы. Я парень хоть и отважный, но контактировать с больными и психами никакого желания не имею.
Ну и немаловажный момент – очень много времени уходит на ответы. А времени нет совсем. Потому славное развлечение, которое мне самому страшно нравилось, увы, закончилось.
Как эксперт с мировым именем, можешь ли ты дать несколько советов по раскрутке собственной домашней странички? Дизайн, содержание, шрифты – наверняка все это очень важно…
– На мой взгляд, главное в страничке – содержание, а не форма. Моя так называемая страничка хоть и функциональная, но очень страшная, ортодоксальная такая, из угрюмого интернетного прошлого, когда связь была плохой, а фон страничек – черным. Но публику это не пугает, поскольку я пишу там то, что людям интересно.
Не так давно поставил рекорд: 35 тысяч посетителей в сутки. Вот вам доказательство, что дизайн и шрифты менять не надо, баловство это. Главное, как сейчас модно говорить, – контент!
Год уже почти закончился, и, если забыть о нескольких премьерах под Рождество, можно подвести небольшой киноитог. Какие фильмы понравились тебе в 2005-м?
– Больше всех понравился французский фильм «Набережная Орфевр, 36» – про суровую жизнь оперуполномоченных парижского уголовного розыска. Настоятельно рекомендую всем, кому близки фильмы подобной тематики.
Неплохо пошел «Город грехов» (я даже комикс про него перевел, в лавках продают – отличная вещь). Родригес, можно сказать, реабилитировался после «Однажды в Мексике».
«Остров» неплохо пошел – бабахало и стреляло знатно, режиссер Майкл Бей в который раз не подкачал.
Из наших серьезных отмечу «Статский советник» – в отличие, скажем, от никакого «Турецкого гамбита». Сильно развеселили «Жмурки», прямо как на машине времени в перестройку скатался. Тогда, правда, было не так смешно.
А сейчас смешно?
– В целом – значительно меньше, чем ранее. Например, в собственный подъезд теперь можно совершенно спокойно заходить без пистолета. Я бы даже сказал, скучновато стало. Хотя, конечно, кому как.
КНИГИ: Не заставляйте меня думать!
Я люблю книжки с картинками и про картинки. Обычно это в высшей степени приятное чтение. Вот и книга Стива Круга в первую очередь радует именно хорошими иллюстрациями. Но, начав читать, увлекаешься еще больше. Что доказывает – ее автор большой мастер в области юзабилити[Usability (англ.) – удобство использования]. Как пел Высоцкий «Открою Кодекс на любой странице/И – не могу – читаю до конца…». Написанная с юмором она может претендовать на роль если не кодекса, то настольной книги дизайнера – точно.
Плотность полезной информации весьма высока: начав читать с любого места, вы тут же, не переворачивая страницы, найдете для себя что-то новое и интересное. Вот лишь малый список тем, которые затрагивает автор: Что должно быть на главной странице? Как сделать удобную навигацию? Какими средствами передать основную идею сайта? Как не поддаться на уговоры маркетингового отдела?
Книга ориентирована прежде всего на тех, кто разрабатывает свой сайт и хочет сделать его «понятным каждому». Мысль, что по-настоящему удобный сайт, даже узкоспециализированный, должен быть удобен любому случайному посетителю, и является главной.
Но книга будет интересна не только веб-дизайнерам. Наверняка массу полезного для себя найдут и те, кто лишь косвенно связан с юзабилити (программисты, издатели, художники). Всегда интересно узнать, почему пользователи ведут себя так, а не иначе: многие психологические аспекты поведения на самом деле оказываются совсем не очевидными. Например, главное, что нужно знать об инструкциях, – их никто не собирается читать, и цель должна состоять в полном устранении всяческих «инструкций»…
На мой взгляд, книга будет интересна любому, даже тому, кто просто интересуется окружающим миром: ведь понятие юзабилити абсолютно универсально и применимо и к топору дровосека, и к входной двери в супермаркет.
Цитата: Существует негласное правило о том, что название страницы должно соответствовать тем словам, по которым я щелкнул мышью, чтобы на эту страницу попасть.
«Как пасти котов» повествует о лидерстве и руководстве, а также о том, как эти две функции успешно совмещать. Да, да – это не одно и то же. Вспомните: нередко в коллективе кроме формального руководителя есть и неформальный лидер. И двести с лишним страниц книги фактически являются инструкцией, как эти роли совместить в одном – причем именно вашем – лице.
Язык книги удивительно легкий, я бы даже сказал, увлекательный. «Программистский» опыт автора чувствуется даже в форме подачи материала, напомнившей руководства компании Microsoft: в конце приведен не только список рекомендуемой литературы для углубления знаний, но и нехарактерный для подобного рода изданий алфавитный указатель.
Вопросы, которые возникают у новоявленного руководителя и на которые берется ответить автор, весьма глобальны: как привыкнуть к роли руководителя, как руководить собой, как организовать успех, как ужиться с начальством…
Мне очень понравилось, что в книге просто перечисляются проблемы и обсуждаются способы их решения, сопровождающиеся примерами из жизни. Вдобавок обязательно рассматриваются возможные ошибки и даются рецепты их исправления. Например, вы как лидер должны принимать решения о том, когда и в каком виде выдавать призы: за то, чтобы сотрудники выкладывались на все сто – им платят: дополнительные поощрения должны распространятся лишь на тех, кто, превысив ожидания, прыгнул выше головы. И так по каждому вопросу руководства коллективом.
Книга, не сомневаюсь, будет очень полезна любому читателю, вовлеченному в процесс управления людьми: от старосты студенческой группы до директора крупного предприятия. В ней собраны методы успешного управления, которые трудно «нащупать» в рамках личного опыта. А как гласит народная мудрость – лучше учиться на чужих ошибках.
Книги предоставлены магазином biblion.ru.
СЕЛО ЩЕПЕТНЕВКА: Пловцы пустыни
Пустыня – Каракумы, Кызылкумы или вовсе Большие Барсуки. Небольшое селение, солоноватая вода векового колодца, верблюды, вараны, колючки, дождь раз в поколение. И вдруг сверху приходит указ – выучить детей плаванию!
Доставляют их самолетом на турецкий берег, неделю тренируют, финальный заплыв на двадцать метров, и наконец – желанный сертификат: такой-то, уроженец Верблюжьей Пустоши, аттестован пловцом пятой категории. Дата, подпись. Возвращаются пловцы в пустыню, вешают сертификаты на стены глинобитных хижин, чтобы потомки смотрели на свидетельства великого чуда.
Компьютеризация сельских школ проведена схоже. Если и стоит в школе другой-третий компьютер и если пытливый учитель, вместо того чтобы от греха подальше спрятать дорогие аппараты в кладовочку с железной дверью, включает их на уроках и дает щелкнуть мышкой по разным местам в те часы, когда электричество струится в неукраденных случайно проводах, что потом делать деревенскому пацану(нке) с обретенным навыком?
Село сейчас здорово напоминает палеонтологический музей, что в Теплом Стане. Словно скелеты динозавров, стоят фермы: двери, крыша сорваны ураганом процветания, одни только стропила чернеют на ветру, но пройдет год-другой, исчезнут и они.
Осень принесла в деревню недоумение: урожай неплох, а долгов вышло больше прежнего. Хороший урожай – плохая цена, а местная заправка, похоже, получает горючее прямиком из Нового Орлеана.
То есть купить сыну или дочке компьютер хозяин может, если держит бычков, поросят или стаю гусей, но это выйдет чистое баловство, игрушка. В хозяйстве компьютер – вещь совершенно лишняя и вредная: вместо того чтобы ухаживать за поросятами, сынуля предпочтет орков крошить. А что орки, если ему всю жизнь суждено убирать дерьмо за разными свиньями?
Помню Одессу 1990 года: у столбов с объявлениями «Преподаю настоящий английский язык» и «Обучаю работе на Ай-Би-Эм и совместимых с ними компьютерах» собирались взволнованные неофиты и делились опытом: где настоящие учителя, а где так, неприкрытая халтура. Язык и компьютер – вот два ключика к заветной двери за полотняным занавесом с нарисованным очагом. И стар и млад начинали день с «гуд монинг, дарлин», а кончали беглым повторением горячих клавиш «Нортона».
Ключики давали искорку уверенности, лихорадочно раздуваемую друг в друге товарищами по надеждам. Пригодились ключики по ту сторону Атлантики иль нет – дело десятое. Главное, они помогли решиться ее пересечь. Или не пересечь.
Сегодня с ключиков позолота стерлась, проступила ржа, впрочем, никого не пугающая, в сельской мастерской половина инструментов ржавые. Но манят языковые курсы все меньше и меньше, а у меня после годичной бомбардировки спамеров при словосочетании «курсы английского» вообще возникают позывы на рвоту. Как ни странно, в Лисьей Норушке, куда не ступала нога англосакса, не любят ни англичан, ни американцев, ни даже австралийцев, вместе с их языком. Заморское мясо пугает сильнее, нежели атомные бомбы. Бомбы, они всех губят, а заморское мясо только селян.
Так, может быть, ну его, отечественное свинячество-поросячество? Зацепиться за город, за хорошую работу, чтобы чисто, воздух прохладный из японского умного ящика, ватерклозет с музыкой? Сидишь себе за черным столом в полумягком кресле менеджера средней руки, регулируешь, куда и сколько послать мороженой кенгурятины, хвостом ее о компьютер, – благодать!
Норушкинский крестьянин-середняк, которого я консультировал по поводу стригущего лишая у цепного пса, показал мне два объявления, привезенных из города, – там они на каждый столб наклеены. «Требуются грузчики. Соцпакет, зарплата ежедневно» и «Хорошо оплачиваемая работа для молодых привлекательных девушек без комплексов». Вот, мол, какое будущее ждет деревенскую молодежь в городе. Я возразил, что столб как источник знаний – отнюдь не лучший выбор, но припомнить, куда крестьянскому пареньку стоит податься, затруднился. То есть, конечно, в техникум или институт, в Воронеже их много, собственно, они уже не просто техникумы и институты, а либо колледжи, либо академии. Беда одна – даром поступить «на бесплатно» можно, лишь имея протекцию, и протекцию немалую. А какие в Норушке покровители? Детям бедняков и середняков лучше ориентироваться на коммерческий прием. Для этого нужно побольше вырастить свиней, свиньи, они моторы образования. И ЕГЭ сдать помогут, и поступить в академию, и окончить ее. Даже кандидатом наук сделаться нечувствительно, доктором, вопрос лишь в количестве хрюшек. Есть трехсвинные колледжи, а есть десятисвинные академии. Кандидат наук в двадцать пять поросячьих сил. Профессор в пятьдесят, или в сто пятьдесят, какие в тот год поросята уродились, какие аппетиты…
Я за своего деревенского знакомца спокоен. Тот, кто выдержал искус змеевика, не боится, а, напротив, любит работать и, не оглядываясь на подпирающую кенгурятину, продолжает растить поросят – достигнет желаемого в любой области. Американцу, чтобы создать ИТ-империю, для затравки нужен гараж.
Нам – свинарник.
ПИСЬМОНОСЕЦ: В онлайне жизни нет
Отзывы по SMS поступают всего третий день, но их уже достаточно, чтобы сделать небольшую выборку (увы, не запланировали места заранее). Страницы и оценки со статьями сопоставлены, translit переведен, номера телефонов не публикую. – С.Л.
13 комната «Право на ошибку» (#609) – Ай, молодца! =) Не устаю восхищаться!
Тема номера «Гуманитарные технологии» (#607) – 5 баллов. Продолжайте в том же духе. Ruff-fish.
Кафедра Ваннаха «Выбраковка шпионов» (#609) – единица.
Огород Козловского «Очковтирательство» (#609) – двойка.
Очковтирательство Козловского – кол! Ему что, 15 лет? Он в школе учился?
Привет, Терра. В #609 Козловский разочаровал, а вот Голубицкий молодец.
Наука. «Спать и видеть сны» (#609) – пятерка.Поразительно. Эта гипотеза может изменить мой взгляд на мир. Подумаю.
И чего, SMS действительно читаются? P.s. U r the best :)
Спасибо за новый канал обратной связи. Творческих успехов!
Привет Компьютера! Целую тебя во все полосы!
Очень приятно, что редактора любимого с давних пор журнала пользуются услугами компании МТС. Будут вопросы – обращайтесь. Спасибо. Отдел развития контроль качества МТС-Москва.
Добрый день! Неплохо было бы публиковать в «Письмоносце» и такие вот сообщения, в смысле SMS. А то как будто в пустоту пишешь, все более ощущая свою ущербность и неполноценность. Токо с транслитом проблема для вас, а по-русски дорого для меня. Купил тут номер 609 – предложение об SMS – супер, но пока это сравнимо только с бета-версией, которой необходима отладка. Если вы хотя бы взглянули на мое SMS, а уж тем более смогли прочитать его до этого места, я буду безмерно рад. Респект. :) Steven Vlaso
Хотелось, чтобы Сергей Голубицкий вел свою псих. борьбу с Шамбаевым вне журнала. Жму всем редакторам крепко руку. Удачи!
Как же приятно, когда на другом конце провода тебя понимают. Спасибо вам за разумный журнал и просто по-человечески спасибо.
Будьте здраве! Пока осилил только тему номера, но впечатлений уже хватает – статьи для меня как хлеб насущный (как для студента ЭВМ-щика :-) Другими впечатлениями поделюсь попозже ;-) =Антоникум=
Здравствуйте уважаемая редакция! Читаю ваш журнал уже три года. «Компьютера» рулеззззз вы лучшие!!!!!!!!! Огромный привет Козловскому. Побольше пишите о разных hi-tech новинках.
Антон aka Nightraven iz Yasenevo
Смените краску на обложке!!! Если взяться за обл. влажными руками, то останутся облезшие отпечатки пальцев! Прямо находка для следователя ;)
Было бы прикольно напечатать лучшие SMSки в следующем номере!
Прочитал «13-ю комнату» Леонида Левковича-Маслюка в номере за 30 августа. И вот что хотелось бы сказать по этому поводу. Мне кажется, что нашей стране давно нужна такая «романтическая идея». Не обязательно это – «стать Гейтсом», то есть стать мультимиллионером в области компьютерных технологий.
Лучше всего бы подошла идея покорения космических пространств (благо здесь мы пока еще не самые последние). Полет на Марс или создание Лунной базы – вот что может зажечь сердца молодых людей, стремящихся не просто прожить свою жизнь, а жаждущих сделать что-то значительное, чего до них никто и никогда не делал (или хотя бы поучаствовать в этом).
Жаль только, что наше государство, наверно, никогда не додумается до этого. Так и будем жить: пока цены на нефть высоки – еще ничего, а как только пойдут на спад – так и совсем плохо.
ОТ РЕДАКЦИИ: Наоборот – как раз появится стимул улететь в космос.
Очень позабавило, что в номере 607 вышла статья про офлайновые RPG. Давно этим занимаюсь и никак не ждал такого обзора в «КТ». Спасибо.
В качестве дополнения указываю ссылки на крупнейший российский ролевой сайт/форум: www.rolemancer.ru/ http://www.gameforums.ru/. Вдруг кто-то из читателей всерьез заинтересуется некомпьютерными ролевыми играми.
Алексей Федосеев
Сижу я, значит, как-то, играюсь в GTA San Andreas. Зашел в спортзал, давай качать персонажа. И тут как будто кольнуло что-то и ударило каким-то иррационально сильным ощущением искусственности: «А что ж я сам-то…» Додумав эту мысль и разобравшись в ощущениях до конца, я встал и… пошел отжиматься. Видимо, сработал какой-то защитный механизм, припасенный природой на совсем уж крайний случай и предназначенный как раз для таких маньяков, как я. Искренне желаю всем не доходить до этой стадии.
P.S. С тех пор отжимаюсь каждый день…
С уважением,
Алексей Волков
В «КТ» #607 был упомянута версия о том, что «перестройка в СССР была частично просчитана на суперкомпьютерах ЦРУ». Но, во-первых, сами американцы при любой возможности уверяют всех, что распад Советского Союза стал полной неожиданностью для них самих, а во-вторых, прогнозы американских экспертов не всегда давали ожидаемый результат. Это показывает, например, попытка ЦРУ оценить советский военный бюджет. Были привлечены огромные силы, но чем они занимались? Стоимость советской военной техники оценивалась, исходя из стоимости разработки или производства в США аналогичного образца. Полученные цены переводили в рубли, исходя из рассчитанного другими экспертами ЦРУ паритета покупательной способности рубля и доллара. Например, в 1974 году военный бюджет СССР был оценен в 100 млрд. «расчетных» долларов, тогда как американский составлял 80 млрд. настоящих, при этом доля военных расходов в ВНП составляла соответственно 6% и 7%. Такой вывод (советская экономика оказывалась эффективнее американской) никак не устраивал руководство США, поэтому и была создана «команда Б» (Team B) – группа независимых экспертов, перепроверявшая выводы разведчиков. В соответствии с «генеральной линией партии» «команда Б» просто завышала в несколько раз данные разведки, и эти цифры заставляли их начальство глядеть в будущее с большим оптимизмом. Но если вспомнить, что в ней было всего пятнадцать человек (ничтожно мало по сравнению с занятыми в оценке бюджета!), то обоснованность их выводов никак не могла равняться даже с выводами разведки. Тем не менее пользовались именно ими.
Евгений Киселев
ОТ РЕДАКЦИИ: Интересно бы посмотреть, как наши спецслужбы оценивали состояние нашей экономики в то время. Похоже, там работала одна большая «комманда Б».
Антивирус Dr.Web для Windows 9x-XP – максимально надежную защиту домашнего компьютера – получает Алексей Волков – за правильный выбор в сложной ситуации. Приз предоставлен компанией «Доктор Веб».