Проблема — не в новых идеях, а в том, чтобы избавиться от старых, которые врастают в тех, кого воспитывали, как воспитывали большинство из нас, в каждый уголок наших умов.
В одном из интервью вскоре после получения Нобелевской премии Жорес Алферов сказал: «Мне по-своему жаль новое поколение. Ведь, если разобраться, уже все открыто. Так что в новом веке вам будет делать нечего — так, частностями заниматься».
Так выглядела первая мышь. Через 30 лет современные компьютеры будут казаться нам ничуть не менее примитивными и нелепыми устройствами |
От этих слов одного из отцов современной полупроводниковой электроники становится немного жутко. Значит, предел уже положен и стена темнеет на горизонте? Через пару десятков лет прогресс человечества будет навсегда остановлен одним из незыблемых постулатов Вселенной. «Как навсегда? — спросите вы. — Пройдет сто лет, тысяча, и принципиально ничего не изменится? Ну нет! Не может такого быть!» Однако, как это ни грустно, там, где действительно достигнем физических пределов, мы не сможем продвинуться дальше ни на шаг. Мы бессильны перед законами природы, никакие наши приборы и опыты, молитвы и приказы не заставят их отступить ни на йоту. Уже в ближайшие годы святейшая догма мира высоких технологий — закон Мура (об удвоении плотности транзисторов в процессорах каждые полтора года) станет просто занимательным историческим фактом. Полупроводниковые технологии отживают свое — сейчас очевидно, что частоту в 30—40 ГГц они не перешагнут никогда. Бешеная гонка за тактовой частотой заставит нас научиться считать на атомах и молекулах — это и станет концом эволюции нашей цивилизации. Современная физика жестко и однозначно говорит, что путешествовать к звездам или перемещаться в пространстве с помощью телепортации мы никогда не сможем, если в доступной нам части реальности мы и в самом деле уже открыли абсолютно все.
Но у нас есть повод оставаться оптимистами: ведь ни один закон и постулат не запрещают появление принципиально нового знания! Так, в 1894 г. знаменитый физик Альберт А. Майкельсон (экспериментально доказавший отсутствие эфира) писал: «Наиболее важные фундаментальные законы и факты физической науки открыты, и они сейчас установлены так твердо, что возможность их когда-нибудь заменить чем-то новым вследствие новых открытий крайне мала... Наши будущие открытия нужно искать в шестом знаке после запятой». Не правда ли, напоминает слова Ж. Алферова? Но буквально через год Рентген открыл пронизывающие материю лучи, через два — Беккерель обнаружил явление радиоактивности, через три — Томпсон ввел понятие электрона. Первые 30 лет XX в. принесли теорию относительности Эйнштейна, открытие атомного ядра Резерфордом, квантовую теорию и доказательство расширения Вселенной. Майкельсон умер в 1931 г., так что он еще успел поразиться столь быстрому изменению взглядов на мир. В 1894 г. мы знали все, в 1931-м — почти ничего... Не ждут ли нас в начале XXI в. столь же блестящие откровения природы, как и сто лет назад?
Так выглядел первый электронно-механический компьютер «Марк-1», созданный в 1944 г. Очевидно, что первые квантовые компьютеры будут такими же огромными и медленными устройствами. Однако уже к середине нашего века они смогут значительно потеснить традиционную электронику |
В свое время люди верили, что самолет никогда не сможет преодолеть звуковой барьер, так как это должно его разрушить. Но октябрьским утром 1947 г. мир впервые услышал столь привычный сейчас любому летчику хлопок — Чак Инджер на экспериментальном истребителе сумел обогнать звук. Скромного калужского учителя физики Циолковского, разработавшего в начале века проект полета в космос с помощью реактивного двигателя, все считали в лучшем случае наивным мечтателем (а чаще просто сумасшедшим). Но прошло всего полвека, и первые ракеты взмыли в небо, доказав, что скепсис в отношении творческих возможностей человечества совершенно неуместен.
В этой статье мы поговорим о тех перспективах, которые открывает перед нами дальнейшее развитие технологии на имеющейся теоретической базе. Из множества футуристических направлений мы опишем всего несколько, но наиболее многообещающих и интересных. Мы увидим, каким ярким и необычным может оказаться наше будущее даже с учетом все тех же объективных пределов. И не стоит это воспринимать просто как занимательную сказку: сравните наши достижения в начале XIX и XX вв. — вы поймете, что самые смелые прогнозы (если они не противоречат фундаментальным законам природы) рано или поздно становятся реальностью.
Квантовый компьютер
В 1982 г. неугомонный Ричард Фейнман (лауреат Нобелевской премии 1965 г. за работы по квантовой электродинамике) опубликовал статью, в которой поднял очень важную, ранее обойденную вниманием ученых проблему. Прогресс человеческой цивилизации второй половины XX в. целиком связан с успехами в области электроники. С каждым годом процессоры в компьютерах становятся все производительнее (так, плата современных наручных часов является куда более мощным вычислительным устройством, чем созданный в 1946 г. 30-тонный ламповый «Эниак»), а их структурные элементы — меньше. Но до каких пор сможет продолжаться эта начатая более полувека назад гонка? Пока теоретическим пределом является передача бита информации при помощи одного электрона, локализованного на одном атоме. Это позволит увеличить тактовую частоту примерно до терагерца (или тысячи гигагерц) — в общем, весьма неплохая перспектива. Однако специалисты, приводящие подобные цифры, не учитывают одного факта. Преодолев порог миниатюризации в десяток нанометров (сейчас выпускаются процессоры по 130-нанометровой технологии), мы попадем в необычный, совершенно непохожий на наш, мир квантовых законов.
Ричард Фейнман (1917—1988). Его невероятная прозорливость может быть по достоинству оценена лишь сейчас, когда исполнились многие из его пророчеств |
Особенностью квантовой реальности является ее принципиальная нелокальность и неопределенность: классический бит наших компьютеров, будучи представлен на квантовом уровне одним электроном, как бы «размажется», оказываясь одновременно в двух состояниях, к которым можно применить только вероятностный подход, но нельзя однозначно утверждать, что данная единица информации равна 0 или 1. Если говорить корректнее, то описывающая на квантовом уровне электрон волновая функция, согласно принципу суперпозиции, представляет собой линейную комбинацию всех его состояний (точнее — собственных функций), соответствующих классическому биту. Следовательно, используемые сейчас вычислительные схемы неизбежно перестают работать. Описанное явление, называемое квантовым шумом, представляет собой объективную преграду для дальнейшего развития полупроводниковых технологий (экстраполяция закона Мура показывает, что предел наступит уже в ближайшие 10 лет). Таким образом, тактовая частота в 1 ТГц для традиционной электроники абсолютно недостижима...
Однако выход из тупика имеется, причем обеспеченный именно тем, из-за чего мы в нем оказались, — квантовой природой вещества. Исторический призыв Ричарда Фейнмана ответить на вопрос, какие преимущества могут дать вычислительные системы на квантовых элементах, привлек в эту область множество талантливых ученых, что обеспечило ее быстрый прогресс. На сегодняшний день для построения квантового компьютера сделано так много, что можно смело прогнозировать начало его промышленного выпуска уже в первой четверти наступившего века.
Питер Шор. Возможно, в будущем это имя станет не менее известным, чем имена Чарльза Бэбиджа или Джона фон Неймана. Никто не сделал больше, чем он, для того, чтобы квантовый компьютер стал реальностью |
Вопреки досужему мнению, при решении большинства задач квантовый компьютер не будет работать быстрее традиционного. Более того, на выполнение одного рабочего хода (понятие тактовой частоты к нему неприменимо) ему понадобится существенно больше времени. Однако для квантового бита (кубита) характерно понятие суперпозиции: кубит в одну единицу времени равен и 0, и 1, а классический бит — либо 0, либо 1. Подобное свойство квантовых частиц одновременно находиться в нескольких состояниях обеспечивает параллелизм квантовых вычислений, что делает их в ряде задач эффективнее используемых сейчас технологий. Например, если квантовая память состоит из двух кубитов, то мы потенциально можем одновременно (!) работать со всеми ее состояниями: 00, 01, 10, 11. Таким образом, если в полупроводниковом процессоре одна операция может изменить до L переменных, то в квантовом регистре преобразуется до 2L-1 переменных. А из этого следует, что в случае задачи, идеально использующей его специфику, квантовый компьютер будет в 2L/L раз быстрее, чем классический.
На данном этапе известно всего несколько задач, решение которых облегчится с появлением квантового компьютера. Но так как они исключительно важны, их стоит упомянуть.
Квантовые компьютеры компании IBM. Представляют собой молекулы жидкой органики (поэтому их нередко называют «компьютерами в чашке кофе»), «программирование» которых осуществляется при помощи переменного магнитного поля |
Исторически первым квантовым алгоритмом стал разработанный в 1995 г. американским математиком Питером Шором из Bell Labs (из ее стен вышло 12 нобелевских лауреатов по физике) алгоритм быстрой факторизации больших чисел. Его появление немало напугало банкиров и генералов от спецслужб, и вот почему. Все современные криптографические системы строятся исходя из предположения, что разложить на простые множители достаточно длинное число невозможно. Для того чтобы решить подобную задачу для N-битового двоичного числа, современным компьютерам требуется 2N единиц времени. А квантовый компьютер, использующий алгоритм Шора, справится с ней за время N3. Так, на поиск ключа к шифру на основе разбиения на простые множители 300-разрядного числа мощнейшая из существующих ЭВМ затратила бы около миллиона лет, а на подобную работу для 1000-разрядного числа ей понадобится 1025 лет (это время в миллиарды раз превосходит возраст нашей Вселенной). Квантовому же компьютеру на то, чтобы просчитать эту задачу, достаточно всего нескольких часов.
Значительный эффект от параллелизма вычислений квантового компьютера возможен и в такой важной задаче, как организация поиска в несортированной базе данных. Созданный Ловом Гровером, коллегой Шора из Bell Labs, алгоритм в наихудшем случае для нахождения нужного объекта потребует N1/2 запросов, где N — число записей в базе. То есть если классическому компьютеру для анализа 1000 записей понадобится 1000 же логических шагов, то квантовому вычислительному устройству хватит и 30. Таким образом, количество запросов окажется значительно меньше, чем будет проанализировано переменных. Фантастично, не правда ли?
Р. Фейнман указал на возможность использования квантового компьютера для расчета параметров квантовых систем. Квантовая система — это некоторый объект, свойства и особенности которого описываются квантовыми закономерностями. Типичная задача из этой области — расчет распределения электронной плотности в молекуле. Решить ее при помощи обычного компьютера невозможно из-за экспоненциального возрастания числа состояний системы с увеличением количества частиц. Квантовые же вычислительные устройства, используя возможность одновременной обработки большого числа переменных, будут справляться с ней с легкостью. А это позволит нам, например, моделировать молекулы лекарств, что поможет победить неизлечимые сейчас заболевания.
Огромным прорывом в области защиты информации станет организация квантовых линий связи, использующих знаменитый принцип неопределенности Гейзенберга. Он утверждает, что невозможно провести какое-либо измерение в квантовой системе, не внеся в нее изменений. А это означает, что любая попытка копирования информации из канала вызовет всплеск помех, который может быть зарегистрирован операторами.
Вот, в общем-то, и все. Как видите, квантовому компьютеру пока уготована исключительно узкая специализация. Однако вытеснить своего полупроводникового собрата у него все-таки есть шанс. Мы можем рассчитывать на широкое применение квантовых компьютеров в связи с тем, что математики умеют весьма ловко сводить алгоритмы одних типов к другим, равносложным. Так что решение проблемы искусственного интеллекта, новый уровень работы с графикой и видео, прорыв в математическом моделировании — все это может быть обеспечено появлением квантовых вычислительных систем.
Первый практический успех по построению квантового компьютера был достигнут в 1998 г. компанией IBM, сотрудники которой сумели создать двухкубитовую машину из молекулы хлороформа. Продолженные исследования позволили им объявить в 2001 г. о серьезной вехе на пути развития информационных технологий: созданный ими семикубитовый квантовый компьютер решил задачу о факторизации числа 15 при помощи алгоритма Шора, разложив его на 3 и 5.
Однако лидерами в создании квантового компьютера стоит считать разработчиков из группы профессора Марка Эриксона из университета шт. Висконсин в Мэдисоне: в августе этого года они объявили о том, что им впервые удалось смоделировать архитектуру квантового компьютера на основе кремниевой технологии. Их вычислительное устройство представляет собой массив квантовых точек в кремниево-германиевом полупроводнике; в каждой из этих точек локализован один электрон. В качестве кубита используется спин электрона. Управление системой осуществляется при помощи электростатических «затворов», при «открывании» которых электроны туннелируют.
На сегодняшний день в десятках научно-исследовательских центров по всему миру ведутся работы по реализации квантового компьютера на базе органических молекул и сверхпроводящих колец, на атомах фосфора, встроенных в кремниевую пластину, и квантовом эффекте Холла, джозефсоновском контакте и мессбауэровских ядрах. И хотя пока успехи впечатляют лишь специалистов, вера людей в победу и их целеустремленность заставляют надеяться — будущее будет выиграно нами!
Нанотехнологии и молетроника
Любой из известных нам предметов — всего лишь скопление атомов в пространстве. И будет ли это алмаз или горстка пепла, булыжник или чип компьютера, труха или спелый плод, определяется только способом их упорядочивания. Расположение атомов друг относительно друга порождает такие понятия, как дешевое и драгоценное, обычное и уникальное, здоровое и больное. Наше умение упорядочивать атомы лежит в основе любой технологии. В процессе развития цивилизации люди учились управлять все меньшими и меньшими группами атомов. Мы прошли долгий путь от каменных наконечников для стрел до процессоров, умещающихся в игольном ушке. Но наши технологии все еще грубы, и пока мы вынуждены оперировать большими, плохо управляемыми группами атомов. По этой причине наши компьютеры глупы, машины непрерывно ломаются, молекулы в наших клетках неизбежно приходят в беспорядок, уносящий сначала здоровье, а затем и жизнь. Настоящий же прорыв в эволюции науки произойдет только тогда, когда мы научимся управлять отдельными атомами.
Один из вариантов «молекулярного транзистора». Из состояния 1 в состояние 0 данную молекулу можно перевести воздействием жесткого ультрафиолетового излучения, а обратно — с помощью обычного света |
Технологии, которые работают на уровне отдельных атомов и молекул, называются нанотехнологиями (нанометр — это 10-9 м, одна миллиардная метра). Отцом этого перспективнейшего направления считается все тот же Ричард Фейнман, прочитавший в 1959 г. историческую лекцию «Там, внизу, еще много места». В ней он сказал: «Насколько я вижу, принципы физики не запрещают манипулировать отдельными атомами... Пока мы вынуждены пользоваться молекулярными структурами, которые предлагает нам природа. Но в принципе физик мог бы синтезировать любое вещество по заданной химической формуле». Технический уровень того времени, когда были произнесены эти пророческие слова, заставлял воспринимать их как очередную футуристическую сказку. Но в 1981 г. ученые Г. Бининг и Г. Рорер из швейцарского отделения IBM создали туннельный микроскоп, впервые позволивший взглянуть на обособленные молекулы и атомы. Однако исследователей ждал еще один приятный сюрприз: оказалось, что их детище способно не только «увидеть», но и «подцепить» отдельный атом и перенести его на другое место. За прошедшие с тех пор 20 лет нанотехнологии стали производственной реальностью, и уже сейчас мы можем создавать необходимые нам объекты, «монтируя» их на атомном уровне.
Примеры наноструктур («наношестеренки», фуллерены, нанотрубы), которые в будущем могут быть активно использованы для построения наномашин. Все они являются аллотропными модификациями углерода |
Когда говорят о нанотехнологиях, подразумевается несколько достаточно разрозненных по целям и планируемому времени реализации научных направлений. Одно из них, работающее над качественным переходом традиционной полупроводниковой электроники с микро- на наноуровень, хорошо освещено в периодической литературе. Успехи этих работ значительны уже сегодня, но, ввиду неразрешимости ряда проблем, связанных с размерными эффектами, неизбежно возникающими при достижении транзисторами величины 30—40 нм, очевидна необходимость поиска альтернативной технологии. Одним из вариантов является молекулярная электроника, или молетроника.
В 1974 г. ведущие ученые фирмы IBM А. Авирам и М. Ратнер представили вещество, молекула которого обладала теми же свойствами, что и обычный диод. Пропуская ток в одном направлении, введением дополнительного, управляющего фрагмента она могла быть усовершенствована до своеобразного молекулярного транзистора. Соединив две такие молекулы, можно получить абсолютный аналог полупроводникового триггера — основного элемента современных процессоров. «Переключать» же данное устройство, имитируя состояния бита — 0 и 1, возможно с помощью света или электрического поля. Следуя описанной идее, химики синтезировали великое множество кандидатов на роль транзистора будущего. Так началась эпоха молетроники.
Впрочем, вскоре ученые поняли, что копировать традиционный процессор совсем необязательно. Ведь теоретически в качестве бита годится любая двухуровневая система, которую относительно легко можно перевести из одного состояния в другое. Молекул же, меняющих свою структуру при определенном физико-химическом воздействии, известно немало. Например, спиробензопирены «переключаются» в состояние 1 под действием ультрафиолета, а обратно — с помощью обычного света. На основе подобных структур реально построение не только логических элементов, но и устройств памяти. Соединять же молекулярные триггеры можно, используя либо углеродные нанотрубы, либо разработанные недавно токопроводящие полимеры (за их открытие группе ученых была вручена в 2000 г. Нобелевская премия).
Если действительно удастся заменить транзисторы отдельными молекулами, то размер процессора уменьшится в сотни раз. Рост же производительности на несколько порядков позволит выпустить терагерцевые процессоры, что совершенно невозможно на базе классических кремниевых технологий. Только представьте — мощный компьютер будет умещаться на кончике волоса! Молекулярные схемы будет возможно организовать по нейроноподобному принципу, что поможет наконец добиться успеха в решении весьма застарелой проблемы «качественного искусственного интеллекта (ИИ)» (Автор категорически отказывается называть ИИ такой интеллект, который не способен выдержать тест Тьюринга, т. е. разумно отвечать на задаваемые вопросы и, главное, обладать способностью к творчеству. В дальнейшем в статье эта точка зрения отредактирована, так как ИИ — устоявшийся термин для большой области науки. — Прим. ред.) Молекулярная память также оставит далеко позади свою полупроводниковую конкурентку. По прогнозу ведущего специалиста в области молетроники, американского биохимика Мак-Алира, плотность структурных элементов в таких блоках достигнет тысяч триллионов на каждый кубический миллиметр. А это означает, что на домашних компьютерах можно будет хранить терабайты информации. Еще более перспективно построение блоков белковой памяти, действующей по принципу запоминания, возможно используемому и человеческим мозгом. Вероятно, такой подход позволит реализовать переселение человеческого интеллекта в компьютер. Однако для теоретической разработки этого направления мы пока слишком мало знаем о том, как все-таки работает наш мозг.
Весьма оригинальна и имеет огромные перспективы идея создания вычислительных устройств на базе ДНК. Родоначальником этого направления является Леонард Адлеман (один из создателей схемы RSA), решивший в 1994 г. с помощью «умных» молекул задачу о коммивояжере. Тогда ДНК-компьютер смог верно найти кратчайший путь для путешествия по семи городам. В этом году был достигнут куда больший успех: детищу Адлемана удалось справиться со сходной задачей, содержащей уже более миллиона вариантов.
Основная идея, которая используется при создании ДНК-компьютеров, следующая: для каждой из переменных (определяющих, например, путь) синтезируется уникальная последовательность оснований; затем, будучи смешаны в достаточном количестве (триллионы молекул), эти переменные соединяются в варианты. Исходя из правила больших чисел, всех вариантов будет приблизительно поровну. Остается только определить, в каком из них переменные не повторяются. Это самая сложная проблема, решаемая при помощи многоступенчатой экстракции, хроматографии и других химических методов.
Преимущество у ДНК-компьютера такое же, как и у квантового: параллелизм вычислений. То есть многие из не решаемых современными вычислительными устройствами проблем (по причине экспоненциальной сложности) будут для него полиномиально сложными, а значит, вполне доступными. В будущем проектировать и создавать ДНК-компьютеры начнут непосредственно в живых клетках, что позволит выполнять в них цифровые программы, взаимодействующие с естественными биохимическими процессами.
Конечно, относительно реализации полноценного ДНК-компьютера вопросов пока больше, чем ответов, но стоит прислушаться к миллиардолетнему опыту природы и попытаться воспользоваться подаренным ею невероятным по возможностям инструментом.
Хотя все сказанное похоже на отрывок из фантастического романа, многое из этого уже почти реальность. Первые молекулярные схемы уже существуют, и в текущем десятилетии должно начаться их серийное производство. Первый же полноценный молекулярный компьютер появится, по прогнозам экспертов, в 2015—2020 гг.
Искусственный интеллект
Кадр из нашумевшего фильма Стивена Спилберга «Искусственный интеллект». Его появление на экране способствовало невероятному росту популярности исследований в области ИИ и, главное, неплохому притоку средств в соответствующие научные центры |
В далеких 40-х Джон фон Нейман, создатель концепции современного компьютера, был абсолютно уверен, что повышение тактовой частоты до мегагерц позволит машинам мыслить не хуже человека. Однако шли годы, мощности ЭВМ все возрастали, над проблемой искусственного интеллекта билось все больше народу, создавались специальные языки (Lisp и Prolog) и машинные архитектуры, соответствующие специальности появились во всех университетах, — но научить компьютеры думать так и не удалось.
Правда ИИ нашел свои области применения, став важным повседневным инструментом для решения некоторых типов задач. Что же нужно, чтобы научить компьютер думать?
Во-первых, необходимо отказаться от булевой алгебры, описывающей состояние системы только двумя возможными вариантами — или 0, или 1. Ведь, согласитесь, наше сознание не формирует мысли исключительно по принципу tertium non datur (третьего не дано): так, дерево может быть не только высоким или низким, но и средним, существуют переходные оттенки между черным и белым и т. д. В связи с этим вводится представление о так называемой нечеткой логике (fuzzy logic — англ. «нечеткая, размытая логика»). Нечеткая логика является многозначной логикой, что позволяет определить промежуточные значения для указанных выше примеров. Сейчас математический аппарат нечеткой логики удобен для использования в системах управления метрополитенами и сложными технологическими процессами, при распознавании рукописных символов, в системах прогнозирования землетрясений, наведения телекамер, при трансляции спортивных событий, для повышения безопасности в ядерных реакторах и других целей. Однако для логических методов характерна большая трудоемкость, поскольку во время поиска доказательства не исключен полный перебор возможных вариантов. Исходя из этого, данный подход может быть реализован только в случае небольшого объема базы данных.
Во-вторых, очень перспективным является построение системы ИИ на основе моделирования принципов работы человеческого мозга. Здесь следует говорить о так называемых нейросетях (НС)— искусственных аналогах биологической сети, по своей топологии максимально приближающихся к оригиналу. Сферы применения НС чрезвычайно обширны: распознавание образов, анализ и синтез речи, машинный перевод, прогнозирование, системы управления несложными объектами в реальном масштабе времени. Можно предполагать появление НС, нацеленных на создание информационных копий человека, виртуальных личностей, средой обитания которых является Интернет. Однако прогресс в данном направлении сдерживается пока тем, что мы слишком мало знаем о том, как работает мозг. Следовательно, развитие нейробиологии напрямую определяет и решение проблемы деятельности «полноценного» ИИ.
В-третьих, интересным представляется подход к созданию ИИ на основе эволюционирующих систем. Построенные по начальной модели и развивающиеся по определенным правилам, такие системы способны генерировать копии самих себя с несколько модифицированными и наиболее приемлемыми для текущей ситуации свойствами. Необходимо заметить, что первоначальная модель может быть любой: НС, набор логических правил, деревьев, а критерии отбора появляющихся модификаций зависят от установленных изначально эволюционных алгоритмов. Примером простейшей эволюционной модели может служить алгоритм игры «Жизнь» (см. врезку «Жизнь в ПК»).
В-четвертых, можно создать систему, только имитирующую поведение человека, его разум и интеллект, со степенью достоверности, близкой к единице, воспользовавшись для этого принципом «черного ящика», основной смысл которого сводится к следующему. Допустим, некий объект, обладая определенными свойствами, однозначно влияющими на входящую информацию, анализирует и перерабатывает ее. Причем нам совершенно неважно, каким образом будет происходить обработка поступающих данных. Главное, что необходимо четко уяснить, — это система правил: некая конфигурация A всегда будет преобразована в состояние B. В итоге мы можем создать клон этого объекта, даже не зная его внутренней структуры, точно таким же образом реагирующий на изменения внешней среды, как исходный. Данная модель построения ИИ основывается на способности человека копировать то, что делают другие, не вдаваясь в подробности, как это делать и зачем это нужно. Основной недостаток имитационного подхода — низкая информативность моделей.
Построение «настоящего» ИИ требует значительно больших затрат и усилий, чем можно было бы предполагать, поскольку до сих пор мы не в состоянии четко определить, пользуясь каким-либо формализованным языком, как все-таки нам удается мыслить. Однако, помня принцип «все, что не запрещено, — разрешено», давайте верить, что данная задача разрешима и рано или поздно у нас появятся думающие машины. Другой вопрос — когда это произойдет...
Оптимистичный вывод
Человечество — это не просто сумма людей. Это живой организм, со своим характером, опытом, чувствами и надеждами. Появившись на нашей планете миллионы лет назад, человечество было наивным, энергичным и жестоким в детстве, ищущим, самонадеянным и неопытным в юности... И хочется верить, что в новом веке наша цивилизация вступит в эпоху зрелости, обретя наконец мудрость. Новые технологии избавят человека от голода и болезней, тяжелого физического труда и бедности, оставив ему область творчества, гипотез, фантазии, вдохновения — душу жизни. И душа эта никогда не станет уделом умных машин. Не стоит бояться, что компьютеры, захватывая все новые и новые сферы нашей жизни, смогут, в конце концов, обойтись и без нас. Никакая машина, являясь в конечном счете продуктом коллективной деятельности людей, не может быть «умнее» человечества в целом, ибо при таком сравнении на одну чашу весов кладется машина, а на другую — все человечество вместе с созданной им техникой, включающей, разумеется, и рассматриваемую машину. Не следует полагать, что мы, доверив почти всю работу техническим устройствам, деградируем — нет, мы просто будем избавлены от рутины. Не верьте мрачным фантастам, рисующим картины страшного будущего. Вспомните, что и конец XX в. они обещали не самый приятный... Так или иначе, на протяжении всей истории благодаря прогрессу мы жили все лучше и лучше. Так оно будет и дальше. Старея, человечество неизбежно умнеет. Давайте же верить, что новое столетие станет столетием разума, а не войны и раздора. Будем оптимистами!
Жизнь в ПК
Изобретенная американским математиком Дж. Конвеем «Жизнь» описывает популяцию условных живых клеток, развивающуюся во времени под действием противоборствующих тенденций размножения и вымирания. Действие игры моделируется на некой плоскости, разделенной на ячейки, каждая из которых окружена восемью такими же ячейками (окрестность Мура). Основная идея игры состоит в том, чтобы, начав с какого-нибудь расположения живых клеток (по одной в ячейке), проследить за эволюцией их колонии под действием следующих законов. Если живая клетка имеет в своей окрестности меньше двух или больше трех соседей, то в следующем поколении она умирает, в противном случае — выживает. Живая клетка появляется в пустой ячейке, если вокруг нее имеется ровно три соседа.