Характеристика компьютеров последнего поколения

Характеристика компьютеров последнего поколения

Компьютеры пятого поколения

Материал из Википедии — свободной энциклопедии

Компьютер пятого поколения PIM/m-1, один из немногих, увидевших свет

Компью́теры пя́того поколе́ния (яп. 第五世代コンピュータ) — широкомасштабная правительственная программа в Японии по развитию компьютерной индустрии и искусственного интеллекта, предпринятая в 1980-е годы. Целью программы было создание «эпохального компьютера» с производительностью суперкомпьютера и мощными функциями искусственного интеллекта. Начало разработок — 1982, конец разработок — 1992, стоимость разработок — 57 млрд ¥ (порядка 500 млн $).Содержание [убрать]

1 Возникновение проекта

2 Задачи исследования

3 Международный резонанс

3.1 Параллельный суперкомпьютер МАРС в СССР

4 Трудности реализации

5 Оценка проекта

К моменту начала проекта Япония еще не являлась лидером в области компьютерных технологий, хотя уже достигла большого успеха в реализации компьютеров и приборов, беря за основу американские или английские разработки. Министерство Международной Торговли и Промышленности Японии (MITI) решило форсировать прорыв Японии в лидеры, и с 70-х годов министерство стало строить прогнозы о будущем компьютеров, поручив Японскому Центру Развития Обработки Информации (JIPDEC) указать несколько наиболее перспективных направлений для будущих разработок, а в 1979 был предложен трёхлетний контракт для более глубоких исследований, подключая промышленные и академические организации. Именно в это время и появился термин «компьютеры пятого поколения».

Этот термин должен был подчеркнуть, что Япония планирует совершить новый качественный скачок в развитии вычислительной техники. Первым поколением считались ламповые компьютеры, вторым — транзисторные, третьим — компьютеры на интегральных схемах, а четвёртым — с использованием микропроцессоров. В то время как предыдущие поколения совершенствовались за счёт увеличения количества элементов на единицу площади (миниатюризации), компьютеры пятого поколения должны были для достижения сверхпроизводительности интегрировать огромное количество процессоров.

Главные направления исследований были следующими:

Технологии логических заключений (inference) для обработки знаний.

Технологии для работы со сверхбольшими базами данных и базами знаний.

Рабочие станции с высокой производительностью.

Компьютерные технологии с распределёнными функциями.

Суперкомпьютеры для научных вычислений.

Речь шла о компьютере с параллельными процессорами, работающим с данными, хранящимися в обширной базе данных, а не в файловой системе. При этом, доступ к данным должен был осуществляться с помощью языка логического программирования. Предполагалось, что прототип машины будет обладать производительностью между 100 млн и 1 млрд LIPS, где LIPS — это логическое заключение в секунду. К тому времени типовые рабочие станции были способны на производительность около 100 тысяч LIPS.

Ход разработок представлялся так, что компьютерный интеллект, набирая мощность, начинает изменять сам себя, и целью было создать такую компьютерную среду, которая сама начнёт производить следующую, причём принципы, на которых будет построен окончательный компьютер, были заранее неизвестны, эти принципы предстояло выработать в процессе эксплуатации начальных компьютеров.

Далее, для резкого увеличения производительности, предлагалось постепенно заменять программные решения аппаратными, поэтому не делалось резкого разделения между задачами для программной и аппаратной базы.

Ожидалось добиться существенного прорыва в области решения прикладных задач искусственного интеллекта. В частности, должны были быть решены следующие задачи:

печатная машинка, работающая под диктовку, которая сразу устранила бы проблему ввода иероглифического текста, которая в то время стояла в Японии очень остро

автоматический портативный переводчик с языка на язык (разумеется, непосредственно с голоса), который сразу бы устранил языковый барьер японских предпринимателей на международной арене

автоматическое реферирование статей, поиск смысла и категоризация

другие задачи распознавания образов — поиск характерных признаков, дешифровка, анализ дефектов и т. п.

От суперкомпьютеров ожидалось эффективное решение задач массивного моделирования, в первую очередь в аэро- и гидродинамике.

Эту программу предполагалось реализовать за 10 лет, три года для начальных исследований и разработок, четыре года для построения отдельных подсистем, и последние четыре года для завершения всей прототипной системы. В 1982 правительство Японии решило дополнительно поддержать проект, и основало Институт Компьютерной Технологии Нового Поколения (ICOT), объединив для этого инвестиции различных японских компьютерных фирм.

Вера в будущее параллельных вычислений была в то время настолько глубокой, что проект «компьютеров пятого поколения» был принят в компьютерном мире очень серьёзно. После того, как Япония в 70-е годы заняла передовые позиции в бытовой электронике, и в 80-е стала выходить в лидеры в автомобильной промышленности, японцы приобрели репутацию непобедимых. Проекты в области параллельной обработки данных тут же начали разрабатывать в США — в Корпорации по Микроэлектронике и Компьютерной Технологии (MCC), в Великобритании — в фирме Олви (Alvey), и в Европе в рамках Европейской Стратегической Программы Исследований в области Информационных Технологий (ESPRIT).

Параллельный суперкомпьютер МАРС в СССР

В СССР также начались исследования параллельных архитектур программирования, для этого в 1985 году было создано ВНТК СТАРТ, которому за три года удалось создать процессор «Кронос» и прототипный мультипроцессорный компьютер МАРС.

В отличие от японцев, задача интеграции огромного числа процессоров и реализация распределённых баз знаний на базе языков типа Пролог не ставилась, речь шла об архитектуре, поддерживающей язык высокого уровня типа Модула-2 и параллельные вычисления. Поэтому проект нельзя назвать пятым поколением в японской терминологии.

В 1988 проект был успешно завершён, но не был востребован и не получил продолжения по причине Перестройки и невыгодной для отечественной компьютерной индустрии рыночной ситуации. «Успех» заключался в частичной реализации прототипной архитектуры (в основном, аппаратных средств), однако подобный японскому «большой скачок» в области программирования, баз данных и искусственного интеллекта в рамках этого проекта даже не планировался.

Последующие десять лет проект «компьютеров пятого поколения» стал испытывать ряд трудностей разного типа.

Первая проблема заключалась в том, что язык Пролог, выбранный за основу проекта, не поддерживал параллельных вычислений, и пришлось разрабатывать собственный язык, способный работать в мультипроцессорной среде. Это оказалось трудным — было предложено несколько языков, каждый из которых обладал собственными ограничениями.

Другая проблема возникла с производительностью процессоров. Оказалось, что технологии 80-х годов быстро перескочили те барьеры, которые перед началом проекта считались «очевидными» и непреодолимыми. А запараллеливание многих процессоров не вызывало ожидаемого резкого скачка производительности. Получилось так, что рабочие станции, созданные в рамках проекта успешно достигли и даже превзошли требуемые мощности, но к этому времени появились коммерческие компьютеры, которые были ещё мощнее.

Помимо этого, проект «Компьютеры пятого поколения» оказался ошибочным с точки зрения технологии производства программного обеспечения. Ещё в период разработки этого проекта фирма Apple разработала графический интерфейс (GUI). А позднее появился Интернет, и возникла новая концепция распределения и хранения данных, при этом интернетовские поисковые машины привели к новому качеству хранения и доступа разнородной информации. Надежды на развитие логического программирования, питаемые в проекте «Компьютеры пятого поколения» оказались иллюзорными, преимущественно по причине ограниченности ресурсов и ненадёжности технологий.

Идея саморазвития системы, по которой система сама должна менять свои внутренние правила и параметры, оказалась непродуктивной — система, переходя через определённую точку, скатывалась в состояние потери надёжности и утраты цельности, резко «глупела» и становилась неадекватной.

Идея широкомасштабной замены программных средств аппаратными оказалась в корне неверной, развитие компьютерной индустрии пошло по противоположному пути, совершенствуя программные средства при более простых, но стандартных аппаратных. Проект был ограничен категориями мышления 1970-х годов и не смог провести чёткого разграничения функций программной и аппаратной части компьютеров.

С любых точек зрения проект можно считать абсолютным провалом. За десять лет на разработки было истрачено более 50 млрд ¥, и программа завершилась, не достигнув цели. Рабочие станции так и не вышли на рынок, потому что однопроцессорные системы других фирм превосходили их по параметрам, программные системы так и не заработали, появление Интернета сделало все идеи проекта безнадёжно устаревшими.

Неудачи проекта объясняются сочетанием целого ряда объективных и субъективных факторов:

ошибочная оценка тенденций развития компьютеров — перспективы развития аппаратных средств были катастрофически недооценены, а перспективы искусственного интеллекта были волюнтаристски переоценены, многие из планируемых задач искусственного интеллекта так и не нашли эффективного коммерческого решения до сих пор, в то время как мощность компьютеров несоизмеримо выросла;

ошибочная стратегия, связанная с разделением задач, решаемых программно и аппаратно, проявившееся в стремлении к постепенной замене программных средств аппаратными, что привело к излишнему усложнению аппаратных средств;

отсутствие опыта и глубинного понимания специфики задач искусственного интеллекта с надеждой на то, что авось увеличение производительности и неведомые базовые принципы системы приведут к её самоорганизации;

трудности, выявившиеся по мере исследования реального ускорения, которое получает система логического программирования при запараллеливании процессоров. Проблема состоит в том, что в многопроцессорной системе резко увеличиваются затраты на коммуникацию между отдельными процессорами, которые практически нивелируют выгоду от параллелизации операций, отчего с какого-то момента добавление новых процессоров почти не улучшает производительности системы;

ошибочный выбор языков типа Лисп и Пролог для создания базы знаний и манипулирования данными. В 1980-е годы эти системы программирования пользовались популярностью для САПР и экспертных систем, однако эксплуатация показала, что приложения оказываются малонадёжными и плохо отлаживаемыми[источник?] по сравнению с системами, разработанными обычными технологиями, отчего от этих идей пришлось отказаться. Кроме того, трудность вызвала реализация «параллельного Пролога», которая так и не была успешно решена;

низкий общий уровень технологии программирования того времени и диалоговых средств (что ярко выявилось в 1990-е годы);

чрезмерная рекламная кампания проекта «национального престижа» в сочетании с волюнтаризмом и некомпетентностью высших должностных лиц, не позволяющая адекватно оценивать состояние проекта в процессе его реализации.

Пятое поколение ЭВМ: 1990 – настоящее время

Особенности архитектуры современного поколения компьютеров подробно рассматриваются в данном учебнике. Кратко основную концепцию ЭВМ пятого поколения можно сформулировать следующим образом:

Компьютеры на сверхсложных микропроцессорах с параллельно-векторной структурой, одновременно выполняющих десятки последовательных инструкций программы.

Компьютеры с многими сотнями параллельно работающих процессоров, позволяющих строить системы обработки данных и знаний, эффективные сетевые компьютерные системы.

Шестое и последующие поколения ЭВМ

Электронные и оптоэлектронные компьютеры с массовым параллелизмом, нейронной структурой, с распределенной сетью большого числа (десятки тысяч) микропроцессоров, моделирующих архитектуру нейронных биологических систем.

В конце 80-х годов появляются первые ЭВМ пятого поколения. Пятое поколение ЭВМ связывают с переходом к микропроцессорам. С точки зрения структурного построения характерна максимальная децентрализация управления. С точки зрения программного и математического обеспечения — переход на работу в программных средах и оболочках.

Производительность 108 – 109 операций в секунду. Для пятого поколения характерны многопроцессорные структуры созданные на упрощенных микропроцессорах, которых очень много (решающие поля или среды). Создаются ЭВМ ориентированные на языки высокого уровня.

В этот период существуют две диаметрально противоположных тенденции: персонификация ресурсов и коллективизация ресурсов (коллективный доступ — сети).

Благодаря операционной системе, обеспечивающей простоту общения с этой ЭВМ, большой библиотеке прикладных программ по различным отраслям человеческой деятельности, а также малой стоимости ЭВМ становится необходимой принадлежностью инженера, исследователя, экономиста, врача, агронома, преподавателя, редактора, секретаря и даже ребенка.

О шестом поколении можно пока только мечтать.

Компьютер, созданный на основе нейронных сетей. Пока не существует самостоятельно, но активно моделируется на современных компьютерах.

Один из разработчиков нейрокомпьютеров А. Н.Горбань считает: "Пять поколений ЭВМ следуют друг за другом. Нарождающееся шестое настолько отличается от предыдущих, что лучше говорить не о поколениях и даже не о новых видах, родах или семействах, а о новом царстве — масштаб дистанции между нейрокомпьютерами и обычными ЭВМ соответствует различиям между царствами живых организмов.

Чем отличаются машины второго царства?

Большое число параллельно работающих простых элементов — нейронов (от нескольких десятков до 106-108), что обеспечивает колоссальный скачок в быстродействии.

Место программирования занимает обучение (воспитание) — машина учится решать задачи, изменяя параметры нейронов и связей между ними".

Переход к компьютерам пятого поколения предполагал переход к новым архитектурам, ориентированным на создание искусственного интеллекта.

Считалось, что архитектура компьютеров пятого поколения будет содержать два основных блока. Один из них — собственно компьютер, в котором связь с пользователем осуществляет блок, называемый «интеллектуальным интерфейсом». Задача интерфейса — понять текст, написанный на естественном языке или речь, и изложенное таким образом условие задачи перевести в работающую программу.

Основные требования к компьютерам Создание развитого человеко-машинного интерфейса (распознавание речи, образов); Развитие логического программирования для создания баз знаний и систем искусственного интеллекта; Создание новых технологий в производстве вычислительной техники; Создание новых архитектур компьютеров и вычислительных комплексов.

Новые технические возможности вычислительной техники должны были расширить круг решаемых задач и позволить перейти к задачам создания искусственного интеллекта. В качестве одной из необходимых для создания искусственного интеллекта составляющих являются базы знаний (базы данных) по различным направлениям науки и техники. Для создания и использования баз данных требуется высокое быстродействие вычислительной системы и большой объем памяти. Универсальные компьютеры способны производить высокоскоростные вычисления, но не пригодны для выполнения с высокой скоростью операций сравнения и сортировки больших объемов записей, хранящихся обычно на магнитных дисках. Для создания программ, обеспечивающих заполнение, обновление баз данных и работу с ними, были созданы специальные объектно ориентированные и логические языки программирования, обеспечивающие наибольшие возможности по сравнению с обычными процедурными языками. Структура этих языков требует перехода от традиционной фон-неймановской архитектуры компьютера к архитектурам, учитывающим требования задач создания искусственного интеллекта.

Пример: IBM eServer z990

Изготовлен в 2003 г.

Физические параметры: вес 2000 кг., потребляемая мощность 21 КВт., площадь 2,5 кв. м., высота 1,94 м., емкость ОЗУ 256 ГБайт, производительность — 9 млрд. инструкций/сек.

Компью́теры пя́того поколе́ния (яп. 第五世代コンピュータ) — в соответствии с идеологией развития компьютерных технологий, после четвёртого поколения, построенного на сверхбольших интегральных схемах, ожидалось создание следующего поколения, ориентированного на распределенные вычисления, одновременно считалось что пятое поколение станет базой для создания устройств, способных к имитации мышления.

Переход к компьютерам пятого поколения предполагал переход к новым архитектурам, ориентированным на создание искусственного интеллекта.

Считалось, что архитектура компьютеров пятого поколения будет содержать два основных блока. Один из них — собственно компьютер, в котором связь с пользователем осуществляет блок, называемый "интеллектуальным интерфейсом". Задача интерфейса — понять текст, написанный на естественном языке или речь, и изложенное таким образом условие задачи перевести в работающую программу.

Основные требования к компьютерам 5-го поколения:

— Создание развитого человеко-машинного интерфейса (распознавание речи, образов);

— Развитие логического программирования для создания баз знаний и систем искусственного интеллекта;

— Создание новых технологий в производстве вычислительной техники;

— Создание новых архитектур компьютеров и вычислительных комплексов.

Новые технические возможности вычислительной техники должны были расширить круг решаемых задач и позволить перейти к задачам создания искусственного интеллекта. В качестве одной из необходимых для создания искусственного интеллекта составляющих являются базы знаний (базы данных) по различным направлениям науки и техники. Для создания и использования баз данных требуется высокое быстродействие вычислительной системы и большой объем памяти. Универсальные компьютеры способны производить высокоскоростные вычисления, но не пригодны для выполнения с высокой скоростью операций сравнения и сортировки больших объемов записей, хранящихся обычно на магнитных дисках. Для создания программ, обеспечивающих заполнение, обновление баз данных и работу с ними, были созданы специальные объектно ориентированные и логические языки программирования, обеспечивающие наибольшие возможности по сравнению с обычными процедурными языками. Структура этих языков требует перехода от традиционной фон-неймановской архитектуры компьютера к архитектурам, учитывающим требования задач создания искусственного интеллекта.

Все началось в восемьдесят первом, когда японцы на весь мир заявили о том, что намерены за десять лет создать компьютер пятого поколения. Весь мир тогда смеялся. Япония славилась бытовой электроникой, мотоциклами и авто-малолитражками, однако на компьютерном фронте в тот момент смотрелась так себе. Но в Советском Союзе все восприняли всерьез. И тоже начали работы над пятым поколением электронно-вычислительных машин. Здесь необходимо пояснение. Дело в том, что до сих пор мы работаем на компьютерах, в основе которых лежит принцип алгоритма: разложения задачи на последовательность действий. Так повелось со времен создателей первых ЭВМ: Тьюринга и фон Неймана в 1940-е. Совершенствовалась элементная база ЭВМ, лампы сменились на транзисторы, а последние — на интегральные микросхемы, росло быстродействие машин и уменьшались их раземы — но принципиально они остаются все теми же. Компьютер же пятого поколения должен исползовать уже не алгоритм, а совершенно новый принцип работы. Именно это позволит ему стать действительно искусствененным интеллектом (но не аналогом человека!), понимать речь и разговаривать с людьми на их языке. Такой компьютер решает части одной задачи параллельно и оттого действует намного быстрее нынешних ЭВМ. И в СССР начались работы по созданию именно такой «умной машины».

К моменту начала проекта Япония уже являлась одним из ведущих разработчиков и поставщиков решений в области компьютерных технологий, хотя уже достигла большого успеха в реализации широкого спектра средств вычислительной техники, в том числе и на основе собственных уникальных разработок. Министерство международной торговли и промышленности Японии (MITI) решило форсировать прорыв Японии в лидеры, и с конца 70-х годовинициировало выработку прогнозов о будущем компьютерных технологий. Эта работа была поручена Японскому центру развития обработки информации (JIPDEC), который должен был указать несколько наиболее перспективных направлений для будущих разработок, а в 1979 был предложен трёхлетний контракт для более глубоких исследований, подключая промышленные и академические организации. К этому времени ими начал использоваться термин«компьютеры пятого поколения», так как он уже давно и широко обсуждался международным экспертным сообществом.

Последующие десять лет проект «компьютеров пятого поколения» стал испытывать ряд трудностей разного типа.

Первая проблема заключалась в том, что язык Пролог, выбранный за основу проекта, не поддерживал параллельных вычислений, и пришлось разрабатывать собственный язык, способный работать в мультипроцессорной среде. Это оказалось трудным — было предложено несколько языков, каждый из которых обладал собственными ограничениями.

Другая проблема возникла с производительностью процессоров. Оказалось, что технологии 80-х годов быстро перескочили те барьеры, которые перед началом проекта считались «очевидными» и непреодолимыми. А запараллеливание многих процессоров не вызывало ожидаемого резкого скачка производительности. Получилось так, что рабочие станции, созданные в рамках проекта, успешно достигли и даже превзошли требуемые мощности, но к этому времени появились коммерческие компьютеры, которые были ещё мощнее.

Помимо этого, проект «Компьютеры пятого поколения» оказался ошибочным с точки зрения технологии производства программного обеспечения. Ещё до начала разработки этого проекта фирма Xerox разработала экспериментальный графический интерфейс (GUI). А позднее появился Интернет, и возникла новая концепция распределения и хранения данных, при этом поисковые машины привели к новому качеству хранения и доступа разнородной информации. Надежды на развитие логического программирования, питаемые в проекте «Компьютеры пятого поколения» оказались иллюзорными, преимущественно по причине ограниченности ресурсов и ненадёжности технологий.

Идея саморазвития системы, по которой система сама должна менять свои внутренние правила и параметры, оказалась непродуктивной — система, переходя через определённую точку, скатывалась в состояние потери надёжности и утраты цельности, резко «глупела» и становилась неадекватной.

Идея широкомасштабной замены программных средств аппаратными оказалась в корне неверной, в дальнейшем развитие компьютерной индустрии пошло по противоположному пути, совершенствуя программные средства при более простых, но стандартных аппаратных. Проект был ограничен категориями мышления 1970-х годов и не смог провести чёткого разграничения функций программной и аппаратной части компьютеров.

С любых точек зрения проект можно считать абсолютным провалом. За десять лет на разработки было истрачено более 50 млрд ¥, и программа завершилась, не достигнув цели. Рабочие станции так и не вышли на рынок, потому что однопроцессорные системы других фирм превосходили их по параметрам, программные системы так и не заработали, появление Интернета сделало все идеи проекта безнадёжно устаревшими.

Неудачи проекта объясняются сочетанием целого ряда объективных и субъективных факторов:

· ошибочная оценка тенденций развития компьютеров — перспективы развития аппаратных средств были катастрофически недооценены, а перспективы искусственного интеллекта были волюнтаристски переоценены, многие из планируемых задач искусственного интеллекта так и не нашли эффективного коммерческого решения до сих пор, в то время как мощность компьютеров несоизмеримо выросла;

· ошибочная стратегия, связанная с разделением задач, решаемых программно и аппаратно, проявившееся в стремлении к постепенной замене программных средств аппаратными, что привело к излишнему усложнению аппаратных средств;

· отсутствие опыта и глубинного понимания специфики задач искусственного интеллекта с надеждой на то, что авось увеличение производительности и неведомые базовые принципы системы приведут к её самоорганизации;

· трудности, выявившиеся по мере исследования реального ускорения, которое получает система логического программирования при запараллеливании процессоров. Проблема состоит в том, что в многопроцессорной системе резко увеличиваются затраты на коммуникацию между отдельными процессорами, которые практически нивелируют выгоду от параллелизации операций, отчего с какого-то момента добавление новых процессоров почти не улучшает производительности системы;

· ошибочный выбор языков типа Лисп и Пролог для создания базы знаний и манипулирования данными. В 1980-е годы эти системы программирования пользовались популярностью для САПР и экспертных систем, однако эксплуатация показала, что приложения оказываются малонадёжными и плохо отлаживаемыми по сравнению с системами, разработанными обычными технологиями, отчего от этих идей пришлось отказаться. Кроме того, трудность вызвала реализация «параллельного Пролога», которая так и не была успешно решена;

· низкий общий уровень технологии программирования того времени и диалоговых средств (что ярко выявилось в 1990-е годы);

· чрезмерная рекламная кампания проекта «национального престижа» в сочетании с волюнтаризмом и некомпетентностью высших должностных лиц, не позволяющая адекватно оценивать состояние проекта в процессе его реализации.

Ссылка на основную публикацию
Фейковая карта visa с деньгами
Getting a valid Visa credit card number Visa credit card number (Bulk Generate Visa Cards) To check if your credit...
Удаленная игра на ps4
Использование приложения (Дистанционное воспроизведение PS4) для управления системой PlayStation®4 с компьютера. При установке этого приложения на ПК или Mac можно...
Удаленное подключение к virtualbox
Содержание статьи Если хоть раз попробуешь установить Linux под VirtualBox’ом, может сложиться впечатление, что это очень простой инструмент. Интерфейс виртуальной...
Фейсбук страница владимира панаева
с 16 по 26 Декабря Поволжское отделение Российской академии художеств Лаврушинский пер., д. 15Москва 15 декабря в 18.00 в Координационном...