|
В начале ХХ века компании не только модифицировали свои промышленные машины для работы на электроэнергии, поставляемой компаниями коммунального обслуживания. Они также начинали устанавливать принципиально иные электрические машины, которые обрабатывали не материал, а информацию и управлялись конторскими служащими, а не фабричными рабочими. Машину под названием «перфокарточный табулятор» в начале 1880-х годов изобрел инженер Герман Холлерит1 для автоматизации проведения переписи населения США. Принцип работы машины был прост. Пробивая отверстия в определенных местах бумажной карты, можно было хранить информацию. На одной карте, например, содержались все данные об одной семье. В зависимости от своего расположения на карте отверстие могло означать, что в семье было трое детей или что семья проживала в квартире. Такую карту помещали на электрически заряженную пластину машины Холлерита и опускали на нее сетку, состоящую из тонких металлических игл. В тех местах, где находилось отверстие, игла замыкала цепь и данные с карты записывались специальным устройством. Это была двоичная система (либо в конкретном месте имелось отверстие, либо нет), предвосхитившая принцип работы современных цифровых компьютеров. То, как стали продаваться и применяться перфокарточные табуляторы, во многом определило будущее развитие сферы бизнес-вычислений.
Бюро переписи населения с большим успехом использовало машину Холлерита при проведении переписи в 1890 году. Сбор данных происходил гораздо быстрее, чем в 1880 году, несмотря на то что за этот период население страны выросло примерно на четверть. Расходы на проведение переписи уменьшились на 5 миллионов долларов, что почти в десять раз превысило ожидания бюро. Доказав свою ценность в ускорении расчетов, перфокарточный табулятор привлек внимание владельцев таких крупных компаний, как железные дороги, страховые агентства, банки, а также производителей товаров массового потребления и розничных торговцев. По мере расширения своей деятельности в результате промышленной революции они осознавали необходимость в сборе, хранении и анализе возрастающих объемов данных о клиентах, служащих, финансах, запасах товаров и так далее. Электрификация обеспечила дальнейший рост компаний и привела к увеличению объемов информации, которую необходимо было обрабатывать. Такая интеллектуальная работа стала не менее важной и сложной, чем физический труд, связанный с производством продукции и предоставлением услуг. Табулятор Холлерита позволил крупным компаниям обрабатывать информацию гораздо быстрее, точнее и с привлечением меньшего количества людей, чем это было возможно раньше.
Осознав коммерческий потенциал своего изобретения, Холлерит основал Tabulating Machine Company — компанию по продаже табуляторов предприятиям. Компания быстро выросла, представив ряд таких сопутствующих товаров, как алфавитные табуляторы, сортировщики карт, дубликаторы карт и принтеры, которые она продавала своей растущей клиентуре. В 1911 году компания Холлерита объединилась с компанией Computer-Tabulating-Recording Company, еще более крупным поставщиком подобных машин. Для управления бизнесом был приглашен талантливый молодой управляющий по имени Томас Уотсон. Тринадцать лет спустя амбициозный Уотсон изменил название компании на более впечатляющее — International Business Machines Corporation. Такие компании, как Burroughs и Remington Rand в Соединенных Штатах и Bull в Европе, поспешили выйти на растущий рынок, чтобы конкурировать с компанией IBM Уотсона.
Так возникла отрасль информационных технологий.
Перфокарты применялись все шире по мере введения стандартов разработки карт и работы оборудования, а также по мере снижения цен благодаря техническому прогрессу и конкуренции. За несколько десятилетий большинство крупных компаний создали специальные отделы, занимавшиеся сортировкой, сведением в таблицы и хранением финансовой и прочей деловой информации. Они сделали крупные инвестиции в машины и наняли клерков и технических специалистов для их эксплуатации и обслуживания. Эти компании наладили тесные связи с поставщиками данных систем. «Обработка информации, записанной на картах, укрепилась в деловой практике к середине 1930-х годов, — пишет компьютерный историк Пол Церуззи, — и подкреплялась глубоким проникновением продавцов соответствующего оборудования в бухгалтерии своих клиентов».
По мере того как компании отказывались от собственных энергогенерирующих систем, они создавали новые отделы, занимавшиеся внедрением молодой технологии автоматизированной обработки данных. В течение второй половины века эти отделы резко выросли с появлением электронных цифровых вычислительных машин, которые пришли на смену перфокарточным устройствам. Большинство крупных компаний создавали все более сложные компьютерные системы, тратя десятки и даже сотни миллионов долларов в год на вычислительные операции и все больше полагаясь на ИТ-поставщиков и консультантов для поддержания работы их систем. Когда манипуляция символами — словами, числами и изображениями — заменила манипуляцию материалами в качестве основы бизнеса в развитых странах мира, частные электростанции XIX века стали своеобразным аналогом в частных центрах обработки данных века XX. И так же, как и раньше, компании полагали, что альтернативы не существовало, что проведение сложных вычислительных операций было неотъемлемой частью ведения бизнеса.
Сейчас кажется неизбежным то, что компьютеру предстояло стать основой современного бизнеса, однако изначально полезность машины ставилась под сомнение. Когда в 1940 году появился первый настоящий коммерческий компьютер UNIVAC, мало кто верил в его большое будущее в корпоративном мире. В то время трудно было себе представить, что многим компаниям понадобится проводить сложные математические вычисления, на которые был способен электронный компьютер. Казалось, что для обработки сделок и ведения бухгалтерского учета вполне достаточно старых перфокарточных табуляторов. Говард Эйкен, выдающийся гарвардский математик и член Национального исследовательского совета при правительстве США, назвал «глупостью» мысль о том, что для компьютеров имелся достаточно большой рынок. Он считал, что стране хватит менее десятка компьютеров, в основном для военных и научных исследований. Даже Томас Уотсон сказал в 1943 году: «Я думаю, что существует рынок лишь для пяти компьютеров».
Однако разработчики компьютера UNIVAC Дж. Преспер Эккерт и Джон Мочли, профессора Пенсильванского университета, считали иначе. Они понимали, что, поскольку электронный компьютер хранит инструкции в собственной памяти, его можно запрограммировать для выполнения большого количества функций. Это не просто усовершенствованный калькулятор, выполняющий заданные математические действия. Компьютеру предстояло стать технологией общего назначения, машиной на все случаи жизни, которую компании могли бы применять не только для ведения повседневного бухгалтерского учета, но и для решения множества управленческих и аналитических задач. В 1948 году Мочли перечислил почти два десятка компаний, правительственных агентств и университетов, которые, по его мнению, могли бы с пользой применять компьютер UNIVAC. Как оказалось, рынок был намного больше, чем предполагалось изначально.
Лидирующие позиции в использовании новых мощных машин вновь заняло Бюро переписи населения. 31 марта 1951 года оно приобрело первый компьютер UNIVAC, а спустя год установило его в своей штаб-квартире в Вашингтоне. К концу 1954 года компьютеры Эккерта и Мочли работали в офисах десяти частных корпораций, в том числе General Electric, US Steel, Du Pont, Metropolitan Life, Westinghouse и Consolidated Edison (наследницы Edison Electric Illuminating Company). Компьютеры UNIVAC решали те же задачи, что и системы перфокарт: для выписывания счетов, расчета заработной платы, учета затрат, однако они также решали и более сложные задачи, связанные, например, с прогнозированием объемов продаж, составлением расписания работы заводов и управлением запасами. Очень скоро скептицизм по отношению к роли компьютеров в бизнесе сменился безудержным энтузиазмом. «Идея автоматизированного производства вполне правдоподобна», — заявил журнал Harvard Business Review летом 1954 года.
Энтузиазм охватил и производителей счетных машин, которые увидели растущий и прибыльный новый рынок. Вскоре после появления компьютера UNIVAC компания IBM представила собственную линию универсальных ЭВМ 701-й серии, а к 1960 году компании Honeywell, General Electric, RCA, NCR, Burroughs и подразделение Western Electric компании AT&T конкурировали между собой в сфере аппаратного обеспечения. Начала формироваться новая отрасль разработки программного обеспечения. В конце 1950-х годов для создания компьютерных программ было основано около сорока небольших компаний с такими названиями, как Computer Sciences Corporation, Computer Usage Company и Computer Applications.
Вскоре компании уже соревновались не только в качестве своей продукции, но и в возможностях аппаратного и программного обеспечения. Как только одна компания вводила новую систему для автоматизации деятельности, другие, боясь отстать, следовали ее примеру. Первые битвы в сфере, которой позже будет дано название мировой информационно-технологической гонки вооружений, начались в отрасли авиаперевозок. В 1959 году Сайрус Роулетт Смит, президент компании American Airlines, объявил о запуске амбициозного проекта по созданию системы автоматизации бронирования и продажи авиабилетов. Эти два трудоемких процесса лежали в основе бизнеса. Система, над созданием которой более пяти лет трудились 200 специалистов, получила название Sabre. Она включала два самых мощных компьютера IBM, 16 носителей для хранения информации и более тысячи терминалов, используемых агентами по продаже билетов. Кроме работ по монтажу аппаратных средств проект предусматривал написание миллиона строк программного кода. Когда в конце 1965 года эта система была введена в эксплуатацию, она была в состоянии обработать бронирование 40 000 и продажу 20 000 билетов за день — впечатляющие цифры для того времени.
Система Sabre дала American Airlines такое же огромное преимущество, как водяное колесо Бердена — его заводу. Теперь компания могла обеспечить более высокую производительность, имея меньшее количество сотрудников, чем другие авиакомпании, которые продолжали производить обработку информации вручную. Она также получила большие преимущества в сфере обслуживания клиентов, поскольку отвечала на запросы путешественников гораздо быстрее, чем конкуренты. Кроме того, компания получила возможность исследовать спрос на различные маршруты и с большей точностью корректировать цены на билеты. Создание и запуск компьютерных систем оказались столь же важным фактором для успеха American Airlines, как безопасность полетов и удовлетворение потребностей пассажиров. В последующие несколько лет все остальные крупные авиакомпании, в том числе Pan American, Delta и United, создали подобные системы. Они поняли, что у них не было выбора, если они хотели оставаться конкурентоспособными. Неудивительно, что они нашли партнеров в лице таких производителей, как IBM, Sperry Rand и Burroughs, которые получали огромную прибыль, продавая типовые системы разным компаниям.
Холдинг Bank of America инициировал аналогичный процесс в банковской сфере, когда в 1960 году представил свою новаторскую версию компьютера Electronic Recording Machine Accounting (ERMA) в телевизионной феерии с участием Рональда Рейгана. В течение двух лет банк установил 32 компьютера ERMA для обслуживания почти 5 миллионов текущих и сберегательных счетов, работа с которыми до тех пор производилась вручную. Способность компьютеров обрабатывать транзакции с беспрецедентной скоростью и точностью заставила все крупные финансовые учреждения последовать примеру холдинга Bank of America. То же самое вскоре произошло во всех остальных отраслях: компании подражали друг другу, инвестируя в новейшие компьютерные системы.
Однако эпоха универсальных ЭВМ оказалась лишь началом великого мирового компьютерного бума. В конце 1960-х годов средняя американская компания выделяла на информационные технологии менее 10% своего бюджета капитальных вложений. Тридцать лет спустя, по данным Министерства торговли, эта цифра увеличилась более чем в четыре раза: до 45%. Другими словами, к 2000 году средняя американская компания вкладывала в компьютерные системы почти столько же, сколько во все остальные виды оборудования, вместе взятые. Расходы на программное обеспечение увеличились более чем в сто раз за это же время: с одного миллиарда долларов в 1970 году до 138 миллиардов долларов в 2000 году. В остальных развитых странах наблюдались аналогичные изменения. В начале 1970-х годов мировые расходы на информационные технологии составляли менее 100 миллиардов долларов в год, а в начале 2000-х годов — более триллиона долларов в год.
Что же произошло за эти тридцать лет? Изменилась деловая среда, изменились и компьютеры. Поскольку в экономике увеличилась доля сферы услуг по отношению к промышленности, инвестиции начали смещаться от промышленного оборудования в область информационных технологий. В то же время сами компьютеры стали меньше, дешевле, мощнее, их стало проще программировать, что значительно расширило перечень задач, которые можно было решить с их помощью. Что еще важнее, появились персональные компьютеры, превратившиеся в инструмент, который могли использовать практически все офисные сотрудники.
В эпоху мейнфреймов компьютеры стали институциональными машинами. Из-за высокой стоимости покупки или аренды мейнфрейма (в середине 1960-х годов аренда типового компьютера IBM составляла около 30 000 долларов в месяц) компании были вынуждены использовать машину постоянно, чтобы оправдать расходы. Это означало, что отдельные сотрудники практически никогда не имели доступа к компьютеру. Как их предшественники — перфокарточные табуляторы, мейнфреймы и все сопутствующие устройства были изолированы в специальных помещениях и управлялись специалистами в белых костюмах, которых Церуззи называл «священнослужителями среди технических специалистов». Чтобы машина работала, сотрудник должен был сохранить нужную программу вместе со всеми необходимыми данными на ленте или картах, а затем поместить все это в очередь вместе с заданиями его коллег. Операторы ЭВМ выполняли одно задание за другим, распечатывая результаты. Если сотрудник обнаруживал ошибку, ему приходилось повторно проходить через весь цикл.
Пакетная обработка обеспечивала одно серьезное преимущество: благодаря ей компьютер использовался эффективно. Ни одна машина не простаивала без дела, по крайней мере в течение длительного времени. Обычный корпоративный мейнфрейм был загружен на 90%. А недостатком пакетной обработки было то, что процесс вычисления был безличным. Организационные и технологические барьеры, которые стояли между сотрудником и машиной, подавляли стремление к экспериментированию и ограничивали область применения вычислительной мощности, в то время как задержка в получении результатов не позволяла использовать компьютеры для решения множества мелких повседневных задач, связанных с работой компании.
Такая ситуация длилась недолго. По мере ускорения технологических инноваций в период 1960-1970-х годов компьютеры становились дешевле и уменьшались в размерах. Крошечные транзисторы заменили громоздкие вакуумные трубки, а дешевые стандартизированные компоненты — дорогие изготовленные на заказ части, что позволило создать относительно недорогие мини-компьютеры, которые помещались рядом с рабочим столом. Мини-компьютеры не вытеснили мейнфреймы — они стали дополнением к более крупным и мощным машинам. Однако они значительно расширили область применения компьютеров в компаниях. Поскольку мини-компьютеры соединялись с настольными терминалами, они позволяли рядовым сотрудникам задействовать мощности компьютера для решения широкого спектра задач — от инвестиционного анализа и разработки новых продуктов до составления расписания работы сборочных линий, написания писем и отчетов. Языки программирования также были сильно упрощены за это время. Программисты могли писать код, используя простые английские слова и синтаксис вместо длинных строк, состоящих из цифр. Это значительно расширило индустрию компьютерного программирования, в результате чего увеличилось количество программистов и видов приложений, которые они разрабатывали. К началу 1970-х годов компания могла купить мини-компьютер менее чем за 10 000 долларов и быстро запрограммировать его для выполнения специальных задач.
Бизнес мини-компьютеров процветал, делая такие компании, как Digital Equipment Corporation2, Wang и Apollo, лидерами компьютерной индустрии. Однако эта пора была недолгой. Мини-компьютер оказался переходным звеном. Прорывы в области проектирования интегральных схем, в частности изобретение микропроцессора инженерами Intel в 1971 году, привели к появлению и быстрому распространению нового вида машины — микрокомпьютера, или персонального компьютера, который был еще меньше, дешевле и легче в работе, чем мини-компьютер. Появление ПК произвело переворот в промышленности и положило начало новой эры в области бизнес-вычислений.
Как и в случае с мейнфреймами, поначалу эксперты не разглядели потенциал персональных компьютеров. Однако на этот раз у них появились сомнения иного рода. Мейнфреймы считались слишком мощными для компаний, а персональные компьютеры, наоборот, слишком слабыми. Они воспринимались как игрушки для любителей. Доминирующие в то время компании от IBM до Digital не обращали внимания на новые машины. А вот исключенный из колледжа любитель по имени Билл Гейтс осознал потенциал персональных компьютеров. В 1975 году Гейтс и его школьный приятель Пол Аллен основали небольшую компанию под названием Micro-Soft, которая занялась созданием программного обеспечения для ПК. Вскоре Гейтс понял, что эта машина не просто найдет свою нишу, но в силу своей универсальности и низкой стоимости вытеснит мейнфреймы. Компания, которая сумела бы получить контроль над операционной системой ПК, заняла бы лидирующее положение в компьютерной индустрии. Вии дение Гейтса в итоге превратило компанию, которую он переименовал в Microsoft, в доминирующего игрока ИТ-индустрии и сделало самого Гейтса невероятно богатым человеком.
Появление персонального компьютера привело к демократизации вычислений. Исчезла необходимость в корпоративных центрах обработки данных и ИТ-отделах, ПК превратился в универсальный бизнес-инструмент. ПК также внес изменения в организацию вычислений. Персональные компьютеры, установленные на рабочих столах офисных сотрудников, вскоре были объединены в сеть, и это позволило им обмениваться файлами и совместно использовать принтеры. Прежние комнаты с мейнфреймами не исчезли. Они были преобразованы в новый вид центра обработки данных. В этих центрах находились системы хранения, которые содержали наиболее важные данные, а также мощные серверные компьютеры с программами для управления финансами и операциями компании. Отдельные сотрудники могли на своих ПК работать с такими программами, как Microsoft Word и Excel, а подключаться к программам и файлам на центральных серверах. Поскольку ПК выступал в качестве «клиента» общих серверов, такая система получила название «клиент-сервер». Эта модель стала определяющей в эпоху ПК и по сей день остается доминирующей.
Модель «клиент-сервер» оказалась противоположностью мейнфреймовых систем. Она сделала вычислительный процесс личным, но при этом крайне неэффективным. Корпоративные компьютерные системы и сети — цифровая система передачи мощности современной компании — усложнялись по мере расширения сферы их применения. Одной из основных причин этого усложнения было отсутствие стандартов в области вычислительного оборудования и программного обеспечения. Производители, как правило, продвигали собственные продукты, а они недостаточно хорошо сочетались с продуктами конкурентов. В результате корпоративные программы, как правило, создавались для работы в конкретной операционной системе, для конкретного микрочипа, конкретной базы данных и конкретного оборудования. В отличие от многоцелевых мейнфреймов, большинство серверных компьютеров предназначались для работы с одним приложением или одной базой данных. Всякий раз, когда компания покупала или создавала новое приложение, ей приходилось приобретать и устанавливать новый набор специализированных компьютеров. Каждый из этих компьютеров необходимо было настроить на обслуживание с пиковой нагрузкой, даже если эта пиковая нагрузка никогда не возникала.
Распространение узкоспециализированных систем привело к чрезвычайно низким уровням использования вычислительных мощностей. Недавнее исследование шести корпоративных центров обработки данных показало, что в большей части серверов, количество которых достигало тысячи, задействовано менее четверти их вычислительной мощности. Согласно другим исследованиям, так же нерационально используются системы хранения данных: в среднем на 25-50%. До наступления эры персональных компьютеров специалисты по обработке данных старались сохранять вычислительные ресурсы не только по экономическим, но и по этическим соображениям. «Тратить цикл центрального процессора или байт памяти было недопустимо, — вспоминает научный писатель Брайан Хейс. — Решать несложную задачу с помощью мощного компьютера считалось таким же безвкусным и неспортивным, как ловля форели с помощью динамита». Модель «клиент-сервер» шла вразрез с принципом экономии ресурсов. Вместо бережливости определяющей характеристикой бизнес-вычислений стало расточительство.
За последнюю четверть века сложность и неэффективность модели «клиент-сервер» только возросли. Компании задействовали все больше приложений, поэтому им приходилось расширять свои центры обработки данных, устанавливать новые машины, перепрограммировать старые и нанимать все больше специалистов для управления ими. Если учесть еще и то, что компаниям приходилось покупать резервное оборудование на случай, если сервер или система хранения данных выйдут из строя, вы поймете, что большая часть триллионных инвестиций, сделанных компаниями в информационные технологии, пропала даром.
Кроме этого, существуют и другие издержки. По мере расширения центров обработки данных, все более плотно укомплектованных компьютерами, резко растет потребление электроэнергии. Согласно исследованию, проведенному в декабре 2005 года Национальной лабораторией имени Лоуренса в Беркли3, современный корпоративный центр обработки данных «может потреблять в 100 раз больше энергии на квадратный фут, чем обычное офисное здание». Исследователи обнаружили, что компания тратит свыше одного миллиона долларов в месяц на электричество, необходимое для работы одного большого центра обработки данных. И счета за электричество продолжают быстро расти с увеличением количества серверов и мощности компьютерных чипов. Луис Андре Баррозу, компьютерный инженер компании Google, делает вывод, что, если эффективность компьютеров существенно не возрастет, «в течение ближайших нескольких лет затраты на электроэнергию могут легко превысить затраты на аппаратное обеспечение, возможно, с большим отрывом».
Непроизводительные расходы, присущие модели «клиент-сервер», обременительны для отдельных компаний. Однако в отраслях картина намного хуже. Большая часть программ и аппаратных средств, с которыми сегодня работают компании, имеется у их конкурентов. Компьютеры, системы хранения данных, сетевое оборудование и наиболее популярные приложения стали товарами массового потребления с точки зрения компаний, которые их покупают. Они не отличают одну компанию от другой. То же самое касается сотрудников ИТ-отделов. Большинство из них занимаются рутинным обслуживанием, выполняя такие же задачи, что и их коллеги в других компаниях. Существование десятков тысяч независимых центров обработки данных, использующих аналогичные аппаратные средства, программное обеспечение и виды работ, негативно влияет на экономику. Это привело к наращиванию чрезмерных ИТ-активов почти в каждом секторе промышленности и уменьшению выгоды от компьютерной автоматизации.
Ведущие ИТ-поставщики стали самыми быстрорастущими и прибыльными компаниями в мире. Компания Билла Гейтса — идеальный тому пример. Почти каждая компания сегодня покупает копии операционной системы Microsoft Windows и офисного пакета приложений Microsoft Office для всех своих сотрудников, устанавливая программное обеспечение на каждом отдельном ПК и регулярно производя обновления. Большинство компаний также используют ОС Windows, по крайней мере на некоторых из своих серверов, и устанавливают другие дорогостоящие программы Microsoft в своих центрах обработки данных (например, Exchange для управления электронной почтой). За три десятилетия с момента своего основания годовые объемы продаж компании Microsoft выросли почти до 50 миллиардов долларов, годовая прибыль — до 12 миллиардов, а сумма наличных денежных средств — до 30 миллиардов долларов. И компания Microsoft не одинока. Многие другие производители программного обеспечения, вроде Oracle и SAP, поставщики серверов, например IBM и Hewlett-Packard, производители ПК типа Dell, а также сотни консалтинговых компаний извлекают выгоду из сложности современной отрасли бизнес-вычислений. Все они с готовностью играли роль поставщиков оружия в гонке вооружений, происходившей в сфере информационных технологий.
Почему сфера вычислений развивалась таким, казалось бы, неправильным образом? Почему персонализация компьютеров сопровождалась усложнением и напрасными затратами? Причина довольно проста. Она сводится к двум законам. Первый и самый известный был сформулирован в 1965 году блестящим инженером Intel Гордоном Муром. Закон Мура гласит, что мощность микропроцессоров удваивается каждый год или два. Второй закон был озвучен в 1990-х годах Энди Гроувом, коллегой Мура. По закону Гроува, пропускная способность телекоммуникационных систем удваивается каждые сто лет. Закон Гроува скорее выражает его неприятие умирающей телефонной индустрии, чем констатирует технический факт, тем не менее он обнаруживает простую истину: на протяжении всей истории развития вычислительной техники вычислительная мощность растет намного быстрее, чем пропускная способность коммуникационных сетей. Это несоответствие означает, что компания может воспользоваться преимуществами передовых компьютеров только в том случае, если установит их в собственных офисах и объединит их в собственную локальную сеть. Как это было с электричеством в эпоху систем постоянного тока, нет никакого практического способа эффективной передачи вычислительной мощности на большие расстояния.
Как показывают наблюдения Гроува, дефицит пропускной способности коммуникационных систем уже давно считается препятствием для эффективной обработки данных. Было ясно, что теоретически вычислительная мощность, как и электроэнергия, может поставляться через сеть крупными компаниями коммунального обслуживания и что такие централизованные сервисы станут работать гораздо более эффективно и гибко, чем множество частных центров обработки данных. Еще в 1961 году, когда ученые только начинали искать способы, позволяющие компьютерам общаться друг с другом, Джон Маккарти, эксперт в молодой области сетевых технологий, предсказал, что «процесс обработки данных однажды может превратиться в коммунальную услугу наподобие системы телефонной связи». Каждый прорыв в области сетевых технологий вызывал появление предпринимателей, которые надеялись превратить коммунальные вычисления в крупный бизнес. В эпоху мейнфреймов компании, осуществлявшие обработку данных в режиме разделения времени, устанавливали центральные компьютеры и сдавали их в аренду другим компаниям, позволяя напрямую подключаться к ним через телефонную линию. В 1970-х годах такие компании, как Automated Data Processing, начали предлагать некоторые рутинные вычислительные работы, в частности по расчету заработной платы, в качестве платной услуги. А в 1990-х годах при значительной поддержке венчурного капитала появилось множество «провайдеров прикладных услуг», которые собирались предоставлять компаниям доступ к программному обеспечению через интернет.
Однако все эти начинания в сфере коммунальных вычислений были либо обречены на провал, либо сильно ограничены из-за отсутствия достаточной пропускной способности. Даже в конце 1990-х годов, когда в отрасли телекоммуникаций началась модернизация сетей, пропускная способность по-прежнему не позволяла предоставлять услуги по обработке данных с той же скоростью и надежностью, которые обеспечивали компаниям их собственные машины. И поэтому компании продолжали запутываться в своих цифровых системах передачи мощности, смиряясь с их сложностью, неэффективностью и пустыми тратами как платой за автоматизацию своей деятельности.
Однако теперь все меняется. В последние несколько лет сетевой барьер начал рушиться. Благодаря проложенным коммуникационными компаниями во время бума доткомов оптоволоконным кабелям, длины которых, по некоторым оценкам, достаточно, чтобы обмотать земной шар более 11 тысяч раз, пропускная способность интернета резко увеличилась и подешевела. Закон Гроува был аннулирован. И это меняет все, по крайней мере в сфере обработки данных. Теперь, когда данные можно передавать через интернет со скоростью света, пользователи могут получить доступ к полной мощности компьютеров независимо от своего местоположения. Неважно, где находится серверный компьютер, управляющий вашей программой: в центре обработки данных дальше по коридору или в другой части страны. Все машины теперь объединены и используются совместно — они превратились в единую машину. Как в 1993 году предсказал исполнительный директор компании Google Эрик Шмидт, бывший в то время техническим директором Sun Microsystems, «когда передача данных станет такой же быстрой, как процессор, компьютеры перестанут быть отдельными устройствами и превратятся в сеть».
Оптоволоконный интернет для сферы обработки данных — то же, что сеть переменного тока для электроэнергетики: местоположение оборудования не имеет для пользователя никакого значения. Что еще важнее, интернет, приспособленный к любому типу компьютера и любой форме цифровой информации, играет роль роторного трансформатора Инсулла: он позволяет разрозненным и несовместимым ранее машинам работать в качестве единой системы. Он превращает какофонию в гармонию. Предоставляя универсальную среду для передачи данных, интернет стимулирует создание централизованных вычислительных станций, которые могут одновременно обслуживать тысячи или даже миллионы пользователей. То, чем раньше компании были вынуждены обеспечивать себя сами, теперь они могут приобрести в качестве платной услуги. Это означает, что они могут наконец избавиться от своих цифровых систем передачи мощности.
Системе коммунальных вычислений потребуется много лет, чтобы достичь зрелости. Как когда-то Эдисон и Инсулл, пионеры новой отрасли столкнутся с множеством проблем. Им предстоит найти оптимальный способ измерения и ценообразования на разные виды услуг. По мере роста спроса нужно будет сбалансировать нагрузку и управление коэффициентом неодновременности. Они станут сотрудничать с правительствами, чтобы создать эффективные режимы регулирования. Им необходимо будет достичь нового уровня безопасности, надежности и эффективности. А самая серьезная задача — это убедить крупные компании отказаться от своих систем и центров обработки данных, в которые они вложили так много денег. Однако все эти задачи будут решены, как и раньше. Экономические условия в сфере обработки данных изменились, а в настоящее время прогресс обусловливается именно новой экономикой. На смену эре персональных компьютеров приходит эпоха коммунальных вычислений.
1 Герман Холлерит (1860-1929) — американский инженер и изобретатель немецкого происхождения. Разработал оборудование для работы с перфокартами, которое имело значительный успех при переписях населения США в 1890 и 1900 годах.
2 Клоны компьютеров DEC выпускались промышленностью СССР на отечественной элементной базе под маркой «СМ ЭВМ». Прим. ред.
3 Национальная лаборатория им. Лоуренса в Беркли (Ernest Orlando Lawrence Berkeley National Laboratory, Berkeley Lab, LBNL) — национальная лаборатория Министерства энергетики США в Беркли, Калифорния. Входит в структуру Калифорнийского университета. Ведет несекретные исследования, в отличие от расположенной неподалеку Ливерморской национальной лаборатории им. Лоуренса.
|
|