У "Ю.С.Роботс" возникла проблема. Проблема персонала.
Питер Богерт, старший математик, направлялся в сборочную, когда
встретился с начальником исследовательского отдела Альфредом Леннингом.
Яростно сведя вместе седые брови, Леннинг смотрел через перила вниз, в
компьютерный зал.
На полу под балконом группа людей обоего пола и разного возраста с
любопытством поглядывала по сторонам, а гид произносил подготовленную
заранее речь о роли компьютеров в изготовлении роботов.
- Компьютер, который вы видите перед собой, - говорил он, - самый
большой из компьютеров такого типа в мире. В нем пять миллионов триста
тысяч криотронов, и он способен одновременно рассматривать сто тысяч
вариантов. С его помощью "Ю.С.Роботс" и создает позитронный мозг новой
модели.
- Необходимые требования вводятся вот этой лентой, которую
перфорируют на специальной клавиатуре - похоже на большую пишущую машинку
или линотип, только тут мы имеем дело не с буквами, а с понятиями.
Формулировки переводятся в соответствующие эквиваленты символической
логики, а эти эквиваленты в свою очередь преобразуются в перфорационный
рисунок.
- В течение часа компьютер предоставляет нашим ученым проект
позитронного мозга, в котором имеются все необходимые для робота связи...
Наконец Альфред Леннинг поднял голову и увидел Богерта.
- А, Питер, - сказал он.
Богерт поднял обе руки, приглаживая свою и так безупречную прическу
из черных волос.
- Вам как будто это не нравится, Альфред.
Леннинг хмыкнул. Идея публичных экскурсий возникла в "Ю.С.Роботс"
недавно. Эти экскурсии должны были послужить двум целям. Во-первых, как
утверждали авторы этой идеи, экскурсии позволят людям ближе познакомиться
с роботами и благодаря этому знакомству преодолеть свой почти
инстинктивный страх перед механическими объектами. Во-вторых,
предполагалось, что по крайней мере у некоторых посетителей интерес
возрастет до такой степени, что они захотят принять участие в
исследовательских работах в области создания роботов.
- Вы знаете, что не нравится, - наконец ответил Леннинг. - По крайней
мере раз в неделю нам срывают работу. Учитывая потери рабочего времени,
выгода несущественна.
- По-прежнему нет желающих участвовать в работе?
- О, кое-кто обращается, но только такие категории, которые не так уж
важны. Нам жизненно необходимы исследователи. Вы это знаете. Пока роботы
запрещены на Земле, профессия создателя роботов непопулярна.
- Проклятый Франкенштейнов комплекс, - сказал Богерт, сознательно
повторяя одно из любимых высказываний Леннинга.
Леннинг не заметил легкой насмешки. Он сказал:
- Пора бы мне уже привыкнуть, но я никак не могу. Можно было бы
подумать, что теперь всякий человек понимает: три закона делают роботов
абсолютно надежными. Они просто не представляют опасности. Но возьмите эту
толпу. - Он взглянул вниз. - Только посмотрите на них. Большинство
отправляется в сборочную, чтобы испытать страх, как перед катанием на
горных лыжах. А когда они заходят в помещение, где помещается модель МЕК -
черт возьми, Питер, МЕК на зеленой земле может только сделать два шага
вперед, сказать "Рад познакомиться с вами, сэр", пожать руку и сделать два
шага назад, - так вот, они в страхе отступают, а матери хватают своих
детей. Можно ли ожидать умственной деятельности от таких идиотов?
Богерт не ответил. Они вместе смотрели, как цепочка посетителей
выходит из компьютерного зала в помещение сборочной. Потом они ушли. И не
заметили Мортимера В.Джексона, 16 лет, который, надо отдать ему должное,
не хотел никому причинить вреда.
В сущности, нельзя даже утверждать, что это вина Мортимера. Все
работники знали, в какой день недели проходят экскурсии. Все приборы,
расположенные на пути экскурсии, полагалось нейтрализовать или закрыть,
поскольку человек не в силах противостоять искушению дотронуться до
многочисленных кнопок, рычагов, ручек и клавишей. Вдобавок, гид должен был
очень внимательно следить за теми, кто поддавался искушению.
Но в этот момент гид уже перешел в следующее помещение, а Мортимер
оказался в хвосте. Он миновал клавиатуру, которая подавала информацию в
компьютер. И не знал, что именно в этот момент передаются указания по
созданию позитронного мозга новой модели робота. Иначе, будучи хорошим
мальчиком, он не дотронулся бы до клавишей. Он не мог знать, что из-за
преступной небрежности техник забыл отключить клавиатуру.
И вот Мортимер наудачу коснулся нескольких клавишей, как будто играл
на музыкальном инструменте. Он не заметил, как в другой части комнаты из
прибора показалась часть перфорированной ленты - беззвучно, ненавязчиво.
А вернувшийся техник тоже не заметил вмешательства. Увидев, что
клавиатура подключена, он испытал легкое беспокойство, но не подумал
проверить. Через несколько минут он уже забыл об этом и продолжал вводить
данные в компьютер.
А что касается Мортимера, то ни тогда, ни впоследствии он так и не
узнал, что натворил.
Новая модель ЛНЕ создавалась для добычи бора в поясе астероидов.
Ценность гидридов бора непрерывно возрастала, так как они оказались
необходимым элементов для производства протоновых микроэлементов
космических кораблей, а незначительные запасы Земли быстро подошли к
концу.
Это означало, что роботы ЛНЕ должны быть снабжены глазами,
чувствительными к тем линиям спектра, которые присущи бору, и рабочими
органами, необходимыми для добычи руды и превращения ее в конечный
продукт. Но, как всегда, главную проблему представлял мозг.
Позитронный мозг первого робота ЛНЕ был создан. Это прототип, и,
подобно всем остальным прототипам, он займет свое место в собрании
"Ю.С.Роботс". После его окончательной проверки будут создаваться другие
роботы и передаваться в аренду (не продаваться) шахтным корпорациям.
Прототип ЛНЕ был завершен. Высокий, стройный, блестящий, внешне он
выглядел как любой из не слишком специализированных роботов.
Дежурный техник в соответствии с указаниями "Учебника по роботехнике"
произнес:
- Как ты себя чувствуешь?
Должен последовать ответ:
- Я чувствую себя хорошо и начинаю функционировать. Надеюсь, и у вас
все в порядке, - или что-то в этом роде.
Цель первого обмена репликами - показать, что робот слышит, понимает
простейшие вопросы и дает ответы, соответствующие тому, чего от него ждут.
Затем следуют более сложные испытания, включая проверку действенности трех
законов и их взаимодействия в каждой модели.
Итак, техник спросил
- Как ты себя чувствуешь?
Голос прототипа ЛНЕ изумил его. Он никогда не слышал такого голоса у
робота (а он слышал множество роботов). Похоже на звуки низкой челесты.
Он был так удивлен, что только спустя несколько мгновений понял, что
говорит робот.
А робот произнес:
- Ба, ба, ба, гуу.
По-прежнему высокий и стройный, он поднял правую руку и сунул палец в
рот.
Техник в полном ужасе посмотрел на него и вылетел из кабинета. Закрыл
за собой дверь и из другого помещения срочно вызвал доктора Сьюзан Кэлвин.
Доктор Сьюзан Кэлвин была единственным робопсихологом "Ю.С.Роботс" (и
фактически всего человечества). Ей не понадобилось долго обследовать
прототип ЛНЕ. Безапелляционным тоном она затребовала копии компьютерных
диаграмм позитронного мозга и инструкции, сопровождавшие их. Просмотрев
их, она, в свою очередь, вызвала Питера Богерта.
Ее серо-стальные волосы были откинуты назад, холодное лицо с
вертикальными линиями, подчеркнутыми горизонтальным разрезом рта, было
обращено к нему.
- Что это, Питер?
Богерт оцепенело смотрел на диаграмму, потом сказал:
- Боже, Сьюзан, в этом нет никакого смысла.
- Конечно, нет. Но как это попало в инструкцию?
Вызвали дежурного техника. Тот искренне поклялся, что понятия не
имеет, что он тут ни при чем. Попытались найти неисправность в компьютере.
Ничего не обнаружили.
- Позитронный мозг не исправить, - задумчиво сказала Сьюзан Кэлвин. -
Так много высших функций нарушено этими бессмысленными искажениями, что он
похож на человеческого ребенка.
Богерт удивленно взглянул на нее, и на лице у Сьюзан Кэлвин появилось
ледяное выражение, как всегда, когда сомневались в ее словах. Она сказала:
- Мы прилагаем все усилия, чтобы сделать робота как можно более
похожим на человека. Отбросьте то, что мы называем функциями взрослого,
что останется? Ребенок. Почему вы так удивились, Питер?
Прототип ЛНЕ, который не проявлял никаких признаков понимания
происходящего, неожиданно сел и принялся внимательно разглядывать свои
ноги.
Богерт смотрел на него.
- Жаль уничтожать это создание. Прекрасная работа.
- Уничтожать? - переспросила робопсихолог.
- Конечно, Сьюзан. Какая от него польза? Боже, если и существует
абсолютно бесполезный предмет, так это робот без работы, которую он мог бы
выполнять. Ты ведь не станешь утверждать, что он может что-то делать?
- Конечно, нет.
- Что же тогда?
Сьюзан Кэлвин упрямо ответила:
- Я хочу провести еще несколько испытаний.
Богерт нетерпеливо взглянул на нее, потом пожал плечами. Если в "Ю.С.
Роботс" и есть человек, с которым бесполезно спорить, так это Сьюзан
Кэлвин. Роботы - единственное, что она любит, и Богерту казалось, что
длительное общение с ними лишило ее последних признаков человечности. С
ней нельзя спорить о принятом решении, как нельзя возбужденный
микроэлемент уговорить отказаться от выполнения своей программы.
- Какая от этого польза? - выдохнул он. Потом торопливо добавил: - Ты
нам дашь знать, когда испытания закончатся?
- Да, - ответила она. - Пошли, Ленни.
(ЛНЕ, подумал Богерт. Конечно, Ленни).
Сьюзан Кэлвин протянула руку, но робот только смотрел на нее.
Робопсихолог мягко взяла робота за руку. Ленни медленно встал (органы
координации работают хорошо). Они вышли вместе, робот на два фута выше
женщины. Множество глаз с любопытством следило за ними, пока они шли по
коридорам.
На одной стене лаборатории Сьюзан Кэлвин, той, что напротив ее
личного кабинета, повесили сильно увеличенную схему позитронных связей
мозга. Большую часть месяца Сьюзан поглощенно изучала эту схему.
Она и сейчас разглядывала ее, прослеживала все искривления и тупики
мозговых путей. За ней на полу сидел Ленни, сводя и разводя ноги, испуская
бессмысленные звуки таким прекрасным голосом, что можно было бесконечно
очарованно слушать этот вздор.
Сьюзан Кэлвин повернулась к роботу.
- Ленни... Ленни...
Она терпеливо повторяла, пока Ленни не поднял голову и не испустил
вопросительный звук. Робопсихолог позволила слабому выражению
удовлетворения появиться на своем лице. Ей удавалось все быстрее
привлекать внимание робота.
Она сказала:
- Подними руку, Ленни. Руку - вверх. Руку - вверх.
Ленни следил за ее движениями. Вверх, вниз, вверх, вниз. Потом сделал
легкое движение рукой и произнес:
- У-у... е...
- Очень хорошо, Ленни, - серьезно сказала Сьюзан Кэлвин. - Попробуй
еще раз. Руку - вверх.
Она протянула свою руку, мягко взяла руку робота, подняла и опустила.
- Руку - вверх. Руку - вверх.
Ей помешал голос, донесшийся из ее кабинета.
- Сьюзан?
Сьюзан остановилась, сжав губы.
- В чем дело, Альфред?
Вошел начальник исследовательского отдела, посмотрел на схему на
стене, потом на робота.
- Все еще это?
- Это моя работа, да.
- Ну, вы знаете, Сьюзан... - Он достал из кармана сигару, пристально
посмотрел на нее и сделал жест, как будто хотел откусить кончик. Но тут
заметил неодобрительный взгляд женщины, отложил сигару и начал сначала: -
Ну, вы знаете, Сьюзан, что модель ЛНЕ сейчас в производстве.
- Слышала. Вы чего-то хотите от меня в связи с этим?
- Н... нет. Но массовое производство означает, что возня с
бракованным образцом бессмысленна. Не отправить ли его на лом?
- Короче, Альфред, вы раздражены тем, что я трачу свое такое ценное
время. Не волнуйтесь. Мое время не тратится зря. Я работаю с этим роботом.
- Но эта работа не имеет смысла.
- Мне судить об этом, Альфред. - Она говорила зловеще спокойным
голосом, и Леннинг счел разумным сменить тему.
- А не расскажете ли о своей работе с ним? Что, например, вы сейчас
делаете?
- Учу его поднимать руку по команде. И пытаюсь заставить его
повторить слово.
Как бы в ответ на ее слова Ленни произнес
- У-у... е... - и поднял дрожащую руку.
Леннинг покачал головой.
- Голос у него замечательный. Как это произошло?
- Не знаю. Передатчик у него нормальный. Я уверена, он может
нормально говорить. Но не говорит. Это следствие каких-то изменений в
позитронных связях, но я еще не определила, каких.
- Ну, определите, ради Бога. Такой голос может быть полезен.
- Значит, какая-то польза от Ленни есть?
Леннинг в замешательстве пожал плечами.
- Ну, это не очень важно.
- Жаль, что вы не видите важного, - резко отозвалась Сьюзан Кэлвин. -
А это гораздо важнее. Но не моя вина. Не уйдете ли, Альфред? Мне нужно
продолжать работу.
Леннинг в кабинете Богерта наконец-то добрался до своей сигары. Он
мрачно заявил:
- У женщины с каждым днем все больше странностей.
Богерт сразу его понял. В "Ю.С.Роботс" была только одна такая
женщина. Он сказал:
- Она все еще возится с псевдороботом, этим своим Ленни?
- Пытается заставить его заговорить.
Богерт пожал плечами.
- В этом главная проблема компании. Нам нужны исследователи. Если бы
были другие робопсихологи, мы могли бы отправить Сьюзан на пенсию. Кстати,
я полагаю, что встреча директоров, назначенная на завтра, связана как раз
с проблемой кадров.
Леннинг кивнул и взглянул на сигару, как будто у нее был необычный
вкус.
- Да. Качество, а не количество. Мы подняли оплату, и теперь у нас
много желающих. Но их интересуют прежде всего деньги. А нам нужны такие,
которых прежде всего интересуют роботы. Несколько таких, как Сьюзан
Кэлвин.
- Дьявольщина, нет! Не таких, как она.
- Ну, не таких точно. Но вы должны признать, Питер, что на уме у нее
только роботы. Других интересов в жизни у нее нет.
- Знаю. Именно поэтому она невыносима.
Леннинг кивнул. Он утратил счет случаям, когда от всей души хотел
уволить Сьюзан Кэлвин. И не мог также сосчитать, сколько миллионов
долларов она сберегла компании. Это поистине незаменимая женщина и
останется такой до смерти - или пока не найдутся другие люди ее масштаба,
так же интересующиеся роботами.
Он сказал:
- Я думаю, мы прекратим экскурсии.
Питер пожал плечами.
- Как хотите. Но серьезно - что нам делать с Сьюзан? Она может без
конца заниматься Ленни. Вы знаете, какая она, когда занимается
какой-нибудь интересующей ее проблемой.
- Но что мы можем сделать? - спросил Леннинг. - Если мы станем
настаивать, она будет возражать из чисто женского упрямства. В конечном
счете мы не можем заставить ее.
Темноволосый математик улыбнулся.
- Я не стал бы применять слово "женский" ни к одной ее части.
- Ну, хорошо, - ворчливо сказал Леннинг. - По крайней мере это никому
не причинит вреда.
Но в этом он ошибался.
Сигнал тревоги на любом крупном предприятии вызывает напряжение. В
истории "Ю.С.Роботс" такой сигнал звучал с десяток раз - пожар,
наводнение, вторжение посторонних.
Но одного не случалось за все время. Никогда не звучал сигнал,
известный как "Робот вышел из-под контроля". Никто и не думал, что он
когда-нибудь прозвучит. ("Черт бы побрал этот Франкенштейнов комплекс", -
думал Леннинг в тех редких случаях, когда вспоминал о нем.)
И теперь, когда этот сигнал начал звучать с десятисекундными
интервалами, в первые мгновения никто - начиная с президента совета
директоров и кончая только что принятым помощником оператора - не
распознал его значения. Прошло несколько мгновений, и массы вооруженных
охранников и медиков устремились в место, обозначенное как опасное.
"Ю.С.Роботс" охватил паралич.
Техника-компьютерщика Чарлза Рендоу со сломанной рукой отвели на
больничный этаж. Другого ущерба не было. Никакого физического вреда.
- Но моральный ущерб, - вопил Леннинг, - невозможно оценить!
Сьюзан Кэлвин с убийственным спокойствием смотрела на него.
- Вы ничего не сделаете с Ленни. Ничего. Понятно?
- А вам понятно, Сьюзан? Этот робот причинил вред человеку. Он
нарушил Первый закон. А вы знаете, что такое Первый закон?
- Вы ничего не сделаете с Ленни.
- Ради Бога, Сьюзан, неужели я вам должен напомнить Первый закон?
Робот не может причинить вред человеку или своим бездействием допустить,
чтобы человеку был причинен вред. Наша твердая позиция в том, что роботы
всех типов должны строго соблюдать этот закон. Если публика узнает - а она
узнает, - что есть исключение, хотя бы одно-единственное исключение, нас
заставят закрыться. Единственное спасение - объявить, что виновный робот
немедленно уничтожен, объяснить все обстоятельства и надеяться, что
публика поверит: больше такое никогда не повторится.
- Я хотела бы точно знать, что произошло, - сказала Сьюзан Кэлвин. -
Меня там не было в это время. Я хотела бы знать, что этот парень Рендоу
делал в моей лаборатории без моего разрешения.
- Ясно, что произошло что-то серьезное, - ответил Леннинг. - Ваш
робот ударил Рендоу, и этот дурак включил сигнал "Робот вышел из-под
контроля". И теперь нам придется расхлебывать. Но ваш робот все-таки
ударил его и сломал ему руку. Правда в том, что ваш Ленни не подчиняется
Первому закону и потому должен быть уничтожен.
- Он подчиняется Первому закону. Я изучала структуру его мозга и знаю
это.
- Как же он мог тогда ударить человека? - Отчаяние заставило его
обратиться к сарказму. - Спросите Ленни. Вы, конечно, уже научили его
говорить.
Щеки Сьюзан Кэлвин вспыхнули. Она сказала:
- Я предпочитаю расспросить пострадавшего. И в мое отсутствие,
Альфред, мой кабинет с Ленни в нем должен быть запечатан. Никто не должен
приближаться к нему. Если ему будет в мое отсутствие причинен какой-нибудь
вред, компания больше ни при каких обстоятельствах меня не увидит.
- Но вы согласитесь с его уничтожением, если нарушен Первый закон?
- Да, - сказала Сьюзан Кэлвин. - Я знаю, что он не нарушен.
Чарлз Рендоу лежал в кровати, рука его была в гипсе. Больше всего он
пострадал от шока, когда решил, что робот движется к нему с намерением
убить. До сих пор ни у кого не было причин так бояться роботов. У Рендоу
был уникальный опыт.
Сьюзан Кэлвин и Альфред Леннинг стояли у кровати; с ними был
встретившийся им на пути Питер Богерт. Врачей и сестер попросили выйти.
Сьюзан Кэлвин спросила:
- Ну, что произошло?
Рендоу был напуган. Он пробормотал:
- Эта штука ударила меня по руке. Набросилась на меня.
Кэлвин сказала:
- Вернитесь немного назад в своем рассказе. Что вы делали в моей
лаборатории без разрешения?
Молодой компьютерщик сглотнул, кадык на его горле дернулся. Он был
очень бледен.
- Все знают о вашем роботе. Говорят, вы хотите научить его говорить,
как музыкальный инструмент. Парни спорили, говорит он или нет. Кто-то
сказал, что вы... можете научить говорить воротный столб.
- Я полагаю, - ледяным голосом сказала Сьюзан Кэлвин, - нужно считать
это комплиментом. А к вам какое это имеет отношение?
- Я должен был пойти и проверить... ну, может ли он говорить. Мы
подобрали ключ к вашему кабинету, подождали, пока вы не вышли, и я вошел.
Мы бросали жребий, кому идти. Выпало мне.
- А дальше?
- Я попробовал заговорить с ним, и он меня ударил.
- Что значит попробовали заговорить? Как попробовали?
- Я... я задал ему вопрос, но он не ответил, и мне захотелось его
встряхнуть, поэтому я... ну... крикнул на него... и...
- И?
Наступило молчание. Под немигающим взглядом Сьюзан Кэлвин Рендоу
наконец сказал:
- Я пытался испугать его, чтобы он что-нибудь сказал. - И добавил,
оправдываясь: - Мне нужно было встряхнуть его.
- Как вы пытались его испугать?
- Сделал вид, что хочу ударить.
- И он отвел вашу руку?
- Он ударил меня по руке.
- Хорошо. Это все. - Леннингу и Богерту она сказала: - Идемте,
джентльмены.
У выхода она повернулась к Рендоу.
- Могу решить ваш спор, если вас это еще интересует. Ленни хорошо
умеет произносить несколько слов.
Они молчали, пока не вернулись в кабинет Сьюзан Кэлвин. Здесь стены
были уставлены книгами, некоторые из этих книг она написала сама. Кабинет
отражал ее сдержанный педантичный характер. В нем был только один стул, на
который она села. Леннинг и Богерт остались стоять.
Она сказала:
- Ленни только защищался. Это Третий закон: робот должен заботиться о
своей безопасности.
- Поскольку это не противоречит Первому и Второму законам, - яростно
подхватил Леннинг. - Вы должны закончить предложение. Ленни не имел права
защищаться таким образом, чтобы причинить вред, пусть и незначительный,
человеку.
- Он этого и не сделал, - возразила Кэлвин, - сознательно. У Ленни
недоразвитый мозг. Он не осознает своей силы и слабости человека. Он отвел
угрожавшую ему руку человека, не сознавая, что может сломать кость. В
человеческих терминах, нельзя винить индивидуума, который искренне не
отличает добра от зла.
Богерт успокаивающе прервал:
- Ну, Сьюзан, мы никого и не виним. Мы понимаем, что, рассуждая в
человеческих терминах, Ленни эквивалентен ребенку, и мы не виним его. Но
публика обвинит. "Ю.С.Роботс" будет закрыта.
- Напротив. Если бы у тебя был хотя бы мозг мухи, Питер, ты бы понял,
что именно такой возможности и ждет "Ю.С.Роботс". Это решает наши
проблемы.
Леннинг поднял белую бровь.
- Какие проблемы, Сьюзан?
- Разве корпорация не озабочена тем, как сохранить исследовательских
персонал на нынешнем - да поможет нам Бог! - высоком уровне?
- Да, конечно.
- Ну, а что вы предлагаете перспективным исследователям? Возбуждение?
Новизну? Волнение от прикосновения к неизвестному? Нет! Вы предлагаете
повышенную плату и уверенность в отсутствии проблем.
Богерт сказал:
- Как это отсутствие проблем?
- Разве это проблемы? - выпалила Сьюзан Кэлвин. - Каких роботов мы
выпускаем? Абсолютно завершенных, пригодных к исполнению конкретной
задачи. Промышленность сообщает свои требования; компьютер создает схему
мозга; механизмы собирают робота; вот и вся работа. Питер, какое-то время
назад ты спросил меня, какая польза от Ленни. Какая польза от робота,
который не предназначен для определенной работы? А теперь я тебя спрошу -
какая польза от робота, предназначенного только для одного вида работы? Он
начинает и заканчивает в одном и том же месте. Модель ЛНЕ добывает бор.
Если необходим бериллий, эти роботы бесполезны. Если технология добычи
бора вступает в новую стадию, они тоже бесполезны. Если бы так был создан
человек, он был бы недочеловеком. А созданный так робот - недоробот.
- Вы говорите о разностороннем роботе? - недоверчиво спросил Леннинг.
- А почему бы и нет? Почему нет? Я работала с роботом, мозг которого
был почти полностью выведен из строя. Я начала учить его, а вы, Альфред,
спрашиваете меня, какой в этом прок. Может, сам Ленни никогда не
превзойдет уровень пятилетнего ребенка. Но какая польза вообще? Очень
большая, если вы задумаетесь над труднейшей проблемой: как учить робота. Я
научилась замыкать соседние позитронные связи и создавать новые.
Дальнейшая работа даст еще больше, более точную и надежную технику
обучения.
- Ну?
- Допустим, вы начинаете работу с позитронным мозгом, у которого есть
все первичные позитронные связи, но совсем нет вторичных. Вы начинаете
создавать вторичные. Можно создавать роботов с базовой программой и
способностью к обучению. В случае необходимости их можно настраивать на
одну работу, а потом переучивать. Роботы станут так же разносторонни, как
люди. Роботы будут учиться!
Они смотрели на нее.
Она нетерпеливо сказала:
- Все еще не понимаете?
- Я понимаю, о чем вы говорите, - сказал Леннинг.
- А понимаете ли вы, что это абсолютно новая область исследований,
что нужно разработать абсолютно новую технику, что мы проникаем в
абсолютно неизвестную область? И молодежь получит стимул заниматься
роботехникой. Попытайтесь и увидите.
- Могу ли я заметить, - спокойно сказал Богерт, - что это опасно?
Начинать работу с невежественными роботами значит рисковать тем, что они
нарушат Первый закон. Точно так, как произошло с Ленни.
- Совершенно верно. Разрекламируйте этот факт.
- Рекламировать?
- Конечно. Сообщите об опасности. Объявите, что открываете новый
исследовательский институт на Луне, если население Земли не позволяет
вести здесь эту работу, но обязательно подчеркните связанную с этой
работой опасность.
Леннинг спросил:
- Ради Бога, зачем?
- Потому что опасность послужит приманкой. Вы думаете, ядерные
исследования или космические полеты не опасны? Полная секретность ваших
исследований принесла вам пользу? Помогла преодолеть Франкенштейнов
комплекс, о котором вы постоянно говорите? Попробуйте что-нибудь,
проверенное в других областях.
Из личных помещений Сьюзан послышался звук. Музыкальный голос Ленни.
Робопсихолог немедленно замолкла, прислушиваясь. Она сказала:
- Прошу прощения. Кажется, Ленни зовет меня.
- Зовет вас? - переспросил Леннинг.
- Я ведь сказала, что научила его нескольким словам. - Она подошла к
двери, чуть взволнованная. - Подождите меня, пожалуйста...
Они молча смотрели, как она выходит. Потом Леннинг сказал:
- Как вы думаете, Питер, есть в ее словах что-то?
- Вполне возможно, Альфред, - ответил Богерт. - Вполне возможно.
Достаточно, чтобы поставить этот вопрос на совещании директоров. В конце
концов сделанного не воротишь. Робот причинил вред человеку, и публике об
этом станет известно. Как говорит Сьюзан, мы можем обратить этот случай к
своей выгоде. Конечно, ее побудительным мотивам я не доверяю.
- Что вы имеете в виду?
- Даже если все ею сказанное правда, это лишь рационализация ее
мотивов. А истинная причина - стремление сохранить этого робота. Если мы
прижмем ее (математик улыбнулся, представив себе буквальный неприличный
смысл своих слов), она скажет, что разрабатывает технику обучения роботов,
но я считаю, она по-другому использует Ленни. Уникальное использование.
Все-таки Сьюзан женщина.
- Не понимаю.
- Вы слышали, что сказал робот?
- Нет, не совсем... - начал Леннинг, но тут дверь неожиданно
раскрылась, и мужчины сразу смолкли.
Вошла Сьюзан Кэлвин, неуверенно поглядывая по сторонам.
- Вы не видели здесь... я уверена, что где-то здесь... О, вот оно.
Она подошла к книжному шкафу и взяла предмет из сложной металлической
сетки в форме гантелей. В углублениях лежали металлические детали
различной формы, такого размера, что они не могли выпасть из углублений.
Она подняла этот предмет, металлические детали стукнулись друг о
друга, раздался приятный звон. Леннингу пришло в голову, что это
погремушка для робота.
Когда Сьюзан Кэлвин снова открыла дверь, опять послышался голос
Ленни. На этот раз его слова были слышны отчетливо.
Небесными звуками челесты он произнес:
- Мама, где ты? Иди ко мне, мама.
И Сьюзан Кэлвин заторопилась к единственному ребенку, которого она
могла иметь и любить.