Автор работы: Пользователь скрыл имя, 24 Ноября 2011 в 17:33, курсовая работа
В настоящее время существуют различные точки зрения на архитектуру Фон-Неймана: есть как сторонники, так и противники этой архитектуры. Трудно согласиться с еретическим на первый взгляд утверждением, будто два кита современных компьютерных технологий— статистическая теория информации и вычислительная архитектура с программами, хранимыми в памяти,— исчерпали свой потенциал и нуждаются в радикальном обновлении. Однако тем не менее утверждение это во многом справедливо.
Введение……………………………………………………………….....5
Теория информации Клода Шеннона…………………………………..6
Аргументы сторонников искусственного интеллекта…………......…11
Многоядерность……...…………………………………………………15
Синдром фон Неймана и антимашина……………………………...…16
Реконфигурируемый компьютинг……………………………………..21
Заключение……………………………………………………………...26
Список использованной литературы…………………………………..28
Министерство образования и науки РФ
ФГБОУ
ВПО «Сибирский Государственный
Технологический Университет»
Химико-технологический
факультет заочно-
Кафедра
системотехники
Архитектура
фон Неймана, реконфигурируемые
компьютерные системы
и антимашина
Пояснительная записка
(СТ.000000.074
ПЗ)
СИБИРСКИЙ
ГОСУДАРСТВЕННЫЙ
КАФЕДРА
СИСТЕМОТЕХНИКИ
ЗАДАНИЕ
НА КУРСОВУЮ РАБОТУ
ПО ИНФОРМАТИКЕ
Студент Кляузер Роман Владимирович
Факультет Химико-технологический факультет заочно-дистанционного обучения
Тема
курсовой работы:
Архитектура фон Неймана,
реконфигурируемые
компьютерные системы
и антимашина
Задания:
4)Сравнит
машину Фон-Неймана с антимашиной.
Задание
выдано ___________________
Руководитель Коляда А.В.
РЕФЕРАТ
Пояснительная
записка включает в себя 28 страниц
текста, схему закона Мура , график падения удельной
производительности процессоров, таблицу
сравнения архитектуры Фон-Неймана с антимашиной.
СОДЕРЖАНИЕ
РЕФЕРАТ 3
Введение…………………………………………………………
Теория информации Клода Шеннона…………………………………..6
Аргументы сторонников искусственного интеллекта…………......…11
Многоядерность……...……………………………
Синдром фон Неймана и антимашина……………………………...…16
Реконфигурируемый компьютинг……………………………………..21
Заключение……………………………………………………
Список использованной
литературы…………………………………..28
ВВЕДЕНИЕ
В данной курсовой работе будет рассмотрена архитектура фон-неймановской машины.
В настоящее
время существуют различные точки
зрения на архитектуру Фон-Неймана:
есть как сторонники, так и противники
этой архитектуры.
Трудно согласиться с еретическим на первый
взгляд утверждением, будто два кита современных
компьютерных технологий— статистическая
теория информации и вычислительная архитектура
с программами, хранимыми в памяти,— исчерпали
свой потенциал и нуждаются в радикальном
обновлении. Однако тем не менее утверждение
это во многом справедливо.
Теория информации Клода Шеннона
Теория
информации Клода Шеннона, которую,
по примеру самого Шеннона, все же
следует называть «теорией передачи
данных», никоим образом больше не может
соответствовать современным представлениям
об информации. Напомним, что она возникла
как ответ на необходимость решать задачи,
связанные с передачей данных, и предлагает
соответствующую меру для передаваемых
данных. Иначе говоря, шенноновская теория
отражает то видение информации, которое
было выработано в связи с процессами
передачи данных. Поэтому вполне естественно,
что ее область действия не может распространяться
на множество современных приложений
наподобие обработки неструктурированных
данных, работы с мультимедийным контентом
и т.д. Как это ни странно, но ИТ-специалисты
в подавляющем большинстве не знают теории
информации, а слова «информация» и «данные» часто используются
как синонимы. Показательно, что даже самые
старательные студенты компьютерных специальностей,
прослушавшие обстоятельный курс по теории
информации, не могут соотнести содержание
этого курса с профильными специальностями.
Из-за существующего разрыва между практической
работой с информацией и теорией информации
технологии, называемые «информационными»,
имеют дело вовсе не с информацией, а с
обычными данными. Единого признанного
представления о том, что же такое информация
и что такое технологии для работы ней,
не существует.
Невозможность установить соответствие
между данными и информацией рождает,
условно говоря, построенные «на коленке»
технологии. К их числу относятся такие
полезные методы, как минимизация дублирования
данных (то есть исключение таких данных,
которые соответствуют одной и той же
информации) или повышение качества данных
(исключение разных наборов данных, соответствующих
одной и той же информации). Вполне востребованные,
они тем не менее базируются на интуитивных
представлениях, без какого-либо строгого
определения того, как данные соотносятся
с заключенных в них информацией. Совершенно
очевидно, что подобная кустарщина в работе
с информацией может стать серьезным барьером.
Экспоненциальный рост объемов хранимых
данных, смещение в сторону неструктурированных
данных, появление новых дисциплин работы
с данными, необходимость доведения до
практической реализации старых идей
наподобие распознавания речи невозможны
без разработки новой теории информации.
Однако ее формированию препятствует
так называемая «стена ментальности». Еще
один «постаревший» кит— ставшая по нынешним
временам архаичной фон-неймановская
архитектура. Именно она является самым
серьезным тормозом на пути дальнейшего
совершенствования аппаратного и программного
обеспечения.
Моральное старение фон-неймановской
архитектуры приводит к тому, что вся отрасль,
связанная с обработкой данных, несмотря
на ее видимое процветание, несмотря на
бесчисленные разговоры об информационном
обществе и пр., с неизбежностью приближается
к критическому состоянию. Дело в количественном
и качественном росте. Компьютерный мир
все плотнее и плотнее объединяется с
миром реальным. Появился специальный
термин «всепроникающие компьютерные
системы» (pervasive computing). Компьютер перестал
быть ЭВМ, электронной вычислительной
машиной, и неожиданно выяснилось, что
в своем первоначальном виде компьютер
не вполне соответствует окружающей среде.
Реальный мир во всех его проявлениях
параллелен, а современный компьютерный
мир по своей природе последователен:
данные передаются по последовательным
каналам, команды выполняются одна за
другой, как следствие любые попытки распараллеливания
и адаптации к условиям реального мира
рождают чрезвычайно сложные и искусственные
решения. Одну из фундаментальных слабостей
современных компьютеров вскрыл в 1977 году
Джон Бэкус в речи, с которой он выступил
при получении Тьюринговской премии. С
тех пор в ход пошло прозвучавшее в ней
выражение «бутылочное горло фон Неймана»,
символизирующее собой органический недостаток
архитектурной схемы, ассоциирующейся
с именем Джона фон Неймана. Но несмотря
ни на что, с 1945 года и поныне архитектурная
схема фон Неймана служит основой всех
компьютеров, за исключением небольшого
количества специализированных микроконтроллеров,
построенных с использованием «гарвардской
схемы», называемой так по имени машины
Говарда Айкена Harvard Mark I, где программы
хранились на перфорированных лентах,
а обрабатываемые данные— в релейных
массивах (рис. 1). В современных микроконтроллерах
перфоленты заменила память ROM, реле—
память RAM, но суть осталась прежней: в
процессоре встречаются два независимых
и не сдерживающих друг друга потока команд
и данных. Как следствие, такие специализированные
устройства обладают производительностью,
необходимой для работы в технических
системах в режиме реального времени.
Рисунок 1 - машина Harvard Mark I.
Но
если кризис фон-неймановской архитектуры
наступает, то почему же о нем задумывается
ограниченное число специалистов? Скорее
всего, причина успокоенности большинства
в том, что картину видимого благополучия
искусственным образом поддерживает закон
Мура. Поначалу закон Мура воспринимался
как некий казус. Он в большей степени
удивлял, чем служил руководством к действию,
но со временем корректность закона перестала
вызывать сомнение, и сейчас есть уверенность
в его действенности на долгие годы вперед,
с ним связывают надежды на будущее. Показательно,
что о законе Мура широко заговорили лишь
лет пять назад; как ни странно, до этого
он был мало кому известен, а уж его точная
формулировка и подавно. Долгое время
его ошибочно интерпретировали как закон
периодического удвоения производительности,
и только когда удельная производительность
стала падать, вспомнили об изначальной
формулировке, говорящей о плотности размещения
транзисторов на кристалле. До тех пор
пока сложность процессоров не начала
сдерживать дальнейшее развитие, закон
Мура воспринимался исключительно как
гарант прогресса, однако сегодня сложность
стала серьезной проблемой. Отношение
к закону Мура и его месту в компьютерной
истории нуждается в переосмыслении. В
общем эволюционном процессе закон Мура
играет двойственную роль, являясь и тормозом,
и стимулом одновременно.
Рисунок 2 - Падение удельной производительности процессоров.
Но с другой стороны, количественный рост, постулируемый законом Мура, предопределяет неизбежные перемены, и в какой-то момент должен сработать диалектический переход количества в качество. Легендарный Дэйв Паттерсон, профессор из Калифорнийского университета в Беркли, изобретатель RISC-процессоров и RAID-массивов, считает, что грядет новое время, когда перестанут действовать прежние прописные истины и им на смену придут новые. Однако переход этот осложняется наличием трех «стен».
Аргументы сторонников искусственного интеллекта
Помимо
очевидных технологических
Информация о работе Архитектура фон Неймана, реконфигурируемые компьютерные системы и антимашина