Сдам Сам

ПОЛЕЗНОЕ


КАТЕГОРИИ







Мышляева И. М. – Цифровая схема – техника (2005г.)





ОРГАНИЗАЦИЯ ЭВМ И СИСТЕМ

(Фоменко Наталья Константиновна)

Литература:

Мышляева И. М. – Цифровая схема – техника (2005г.)

Тихонов В. А. – Организация ЭВМ и систем (2008г.)

Александридий Н. – Организация ЭВМ и систем (2010г.)

Раздел 1. Основы организации ЭВМ

 

История развития ЭВМ

Развитие ЭВМ

При рассмотрении поколений ЭВМ будем учитывать следующие отличительные черты:

1. Элементная база;

2. Ввод/ вывод данных;

3. Программное обеспечение и ОС;

4. Быстродействие;

5. Другие;

 

· 1 Поколение (50 года 20 века)

Логические схемы создавались на дискретных радиодеталях и электронных лампах с нитью накала. Отсутствовала ОС. В оперативных запоминающих устройствах использовались магнитные барабаны, электронно-лучевые трубки. В качестве внешних запоминающих устройств применялись накопители на магнитных лентах, перфолентах, перфокартах и штекерных коммутаторах. Для каждой задачи существовал отдельный компьютер. Программирование работы ЭВМ этого поколения выполнялось в двоичной системе счисления на машинном языке, т. е. программы были жестко ориентированы на конкретную модель машины. В 1956 году был создан первый язык программирования для математических задач – язык Фортан, а в 1958 году – универсальный язык Алгол.

· 2 Поколение (1955-1965 гг)

Логические схемы строились на дискретных полупроводниках и магнитных элементах (транзисторах, микро трансформаторах). Стали применяться внешние накопители на жестких магнитных дисках. Появились языки высокого уровня (не требующие знания внутреннего устройства компьютера). В 1964 году появился первый монитор для компьютеров –IBM 2250. В машинах второго поколения были впервые реализованы режимы пакетной обработки и телеобработки информации.

· 3 Поколение (1965-1970 гг)

В 1958 году изобретают малую интегральную схему, в которой на небольшой площади можно было размещать десятки транзисторов. Уже в конце 60-х годов интегральные схемы стали применяться в компьютерах. Развивается ОС. Логические схемы ЭВМ 3-го поколения уже полностью строились на малых интегральных схемах. Снизилась потребляемая машиной мощность, возросли надежность и быстродействие ЭВМ. Стало возможным выполнять на компьютере сразу несколько программ. В оперативных запоминающих устройствах стали использоваться миниатюрные сердечники. В качестве внешних запоминающих устройств широко стали использоваться дисковые накопители. Появились еще 2 уровня запоминающих устройств: сверхоперативные запоминающие устройства, имеющие огромное быстродействие, и быстродействующая кэш-память. В вычислительных машинах 3 поколения значительное внимание уделяется уменьшению трудоемкости программирования, эффективности исполнения программ и улучшению общения оператора с машиной. Это обеспечивается мощными операционными системами, режимами работы с разделение машинного времени, мультипрограммными режимами работы и новыми интерактивными режимами общения. Большое внимание уделено повышению надежности и облегчению технического обслуживания ЭВМ.

· 4 Поколение (1970-1984)

Строилось все на больших интегральных микросхемах. Машины предназначались для повышения производительности труда в науке, производстве, здравоохранении, обслуживании и в быту. Повысилась надежность и быстродействие ЭВМ, а также стала понижаться ее стоимость. Машины стали работать с меньшим вмешательством человека в процесс работы.

· 5 Поколение (с 1984 до наших дней)

Переход к компьютерам 5 поколения предполагал переход к новым видам компьютеров, ориентированных на создание искусственного интеллекта. Считалось что в таких компьютерах будет использоваться так называемый «интеллектуальный интерфейс», задача которого – понять текст, написанный на естественном языке, или речь, и перевести изложенное условие задачи в работающую программу. Основные требования к компьютерам 5 поколения: создание развитого интерфейса (распознавание речи, образов), развития логического программирования для создания баз знаний (данных) и систем искусственного интеллекта, создание новых технологий в производстве вычислительной техники, создание новых видов компьютеров. Для создания программ, обеспечиващих заполнение, обновление баз данных и работу с ними, были созданы специальные объектно ориентированные и логические языки программирования, обеспечивающие наибольшие возможности по сравнению с обычными языками.

 

Основные понятия в области ЭВМ и систем

Вычислительная техника (ВТ) – совокупность технических и математических средств, методов и приемов, используемых для облегчения и ускорения решения трудоемких задач, связанных с обработкой информации путем частичной или полной автоматизации вычислительного процесса; отрасль техники, которая занимается разработкой, изготовлением и эксплуатацией вычислительных машин.

 

Вычислительная машина (ВМ) – комплекс технических и программных средств, предназначенных для автоматизации, подготовки и решения задач пользователя.

 

Вычислительная система (ВС) – совокупность взаимосвязанных и взаимодействующих вычислителей (процессоров) и вычислительных машин периферийного оборудования (мышка, сканер, принтер и тд.) и программного обеспечения, предназначенного для подготовки и решения задач пользователей.

 

Электронная вычислительная машина (ЭВМ) – комплекс технических средств, где основные и функциональные элементы (логические, запоминающие, индикационные и др.) выполнены на электронных элементах, предназначенный для автоматической обработки информации в процессе решения вычислительных и информационных задач.

Поколения ВМ – это сложившееся в последнее время разбиение ВМ на классы, определяемые элементной базой.

 

Поколения компьютеров – это нестрогая классификация ВС по степени развития аппаратных и в последнее время программных средств.

Четвертое поколение ЭВМ (1970-1984 гг.)

 

 

Структура и типы ЭВМ

Структура ЭВМ

Структура ЭВМ представляет собой абстрактную модель, которая устанавливает состав, порядок и принципы взаимодействия основных функциональных частей ЭВМ без учета их реализации.

P 1nyZenxX6v5urjYgIs7x3wy/+IwOJTPt/YlMEL2C1UvKXaKCp3TJgh1Zumax/9vIspDXHcofAAAA //8DAFBLAQItABQABgAIAAAAIQC2gziS/gAAAOEBAAATAAAAAAAAAAAAAAAAAAAAAABbQ29udGVu dF9UeXBlc10ueG1sUEsBAi0AFAAGAAgAAAAhADj9If/WAAAAlAEAAAsAAAAAAAAAAAAAAAAALwEA AF9yZWxzLy5yZWxzUEsBAi0AFAAGAAgAAAAhAJBbS3X4AQAABgQAAA4AAAAAAAAAAAAAAAAALgIA AGRycy9lMm9Eb2MueG1sUEsBAi0AFAAGAAgAAAAhABTC8UDdAAAACwEAAA8AAAAAAAAAAAAAAAAA UgQAAGRycy9kb3ducmV2LnhtbFBLBQYAAAAABAAEAPMAAABcBQAAAAA= " strokecolor="#4f81bd [3204]" strokeweight="2pt"> 1 yfJtFp4/V7ttvZs2k9f6+mp+fACRcE7/YviNz9Gh4kyNP5CNYtRwr+64S2KQKx5Y8XdpNCxvGcmq lOcdqh8AAAD//wMAUEsBAi0AFAAGAAgAAAAhALaDOJL+AAAA4QEAABMAAAAAAAAAAAAAAAAAAAAA AFtDb250ZW50X1R5cGVzXS54bWxQSwECLQAUAAYACAAAACEAOP0h/9YAAACUAQAACwAAAAAAAAAA AAAAAAAvAQAAX3JlbHMvLnJlbHNQSwECLQAUAAYACAAAACEAgzFcKv8BAAAfBAAADgAAAAAAAAAA AAAAAAAuAgAAZHJzL2Uyb0RvYy54bWxQSwECLQAUAAYACAAAACEAJi1ZN94AAAALAQAADwAAAAAA AAAAAAAAAABZBAAAZHJzL2Rvd25yZXYueG1sUEsFBgAAAAAEAAQA8wAAAGQFAAAAAA== " strokecolor="#4f81bd [3204]" strokeweight="2pt">

(стрелка)–коды данных и команд

(пункт стрелка)-управляющие сигналы

 

ЭВМ могут отличаться друг от друга конструктивным исполнением, быстродействием, точностью, но все они содержат 5 функциональных устройств:

· АЛУ – арифметико-логическое устройство

· УУ – устройство управления

· ЗУ – запоминающее устройство

· Увв – устройство ввода информации

· Увыв – устройство вывода информации

Типы компьютеров

По условиям эксплуатации компьютеры делятся на 2 типа:

1. Офисные (универсальные) – предназначенные для решения широкого класса задач при нормальных условиях эксплуатации.

2. Специальные – служат для решения более узкого класса задач или даже одной задачи, требующей многократного решения и функционируют в особых условиях эксплуатации. Машинные ресурсы специальных компьютеров часто ограничены, однако их узкая ориентация позволяет реализовать заданный класс задач наиболее эффективно.

 

По производительности и характеру использования компьютеры можно условно разделить на 4 типа:

1. Мини–компьютеры – машины, конструктивно выполненные в одной стойке, т. е. занимающие объем порядка 0,5 кубометра.

2. Микрокомпьютеры (в том числе и персональные компьютеры) – компьютеры, в которых центральный процессор выполнен в виде микропроцессора.

3. Мэйнфрэймы – предназначены для решения широкого класса научно-технических задач и являются сложными и дорогими машинами. Их целесообразно применять в больших системах при наличии не менее 200-300 рабочих мест. Централизованная обработка данных на мэйнфрэйме обходится примерно в 5-6 раз дешевле, чем распределенная обработка при клиент-северном подходе.

4. Суперкомпьютеры – сверхбыстродействующие машины, которые представляют собой многопроцессорные и (или) многомашинные комплексы, работающие на общую память и общее поле внешних устройств.

 

Понятие «информации»

Слово «информация» происходит от латинского и означает сведение, разъяснение, ознакомление.

Понятие информации является базовым, т. е. должно быть пояснено на примерах или выявлено путем их сопоставления с содержанием других понятий.

Понятие «информация» является общенаучным, так как используется в различных науках и при этом в каждой науке это понятие связано с различными системами понятий.

1. Философское понятие информации: «информация есть отражение реального мира». Человек получает информацию с помощью органов чувств: 80-90% с помощью зрения, 10-15% с помощью слуха, 1-2% с помощью других органов чувств (обоняние, осязание и вкус).

Информация – это сведения, изменяющие наши знания об окружающем мире и понимание его.

 

2. Информация в физике. В физике мерой беспорядка, хаоса для термодинамической системы является энтропия системы, тогда как информация (анти энтропия) является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается, а величина информации увеличивается. Таким образом, в физике информация рассматривается как анти энтропия или энтропия с обратным знаком.

 

3. Математическая теория информации (американский ученый Клод Шеннон): информативность сообщения характеризуется содержащейся в нем полезной информацией – той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации, т. е. информация – это уменьшение неопределенности наших знаний. Такой подход к информации позволяет ее количественно измерять.

Количество информации

Существует формула, которая связывает между собой количество возможных информационных сообщений и количество информации, которое несет полученное сообщение:

N=2H

 

Где: N -количество возможных информационных сообщений;

H -количество информации, которое несет полученное сообщение;

 

Отсюда следует формула Хартли (для равновероятностных сообщений), которая позволяет определить количество информации.

H=log2N

 

 

В случае, когда вероятность событий неодинакова, для определения количества информации достаточно для выявления сообщения использовать формулу Шеннона:

 

 

Где: -вероятность того, что система находится в состоянии i;

N -количество возможных состояний;

 

В случае равновероятностных сообщений =1/N, тогда формула Шеннона переходит в формулу Хартли.

В случае равновероятностных сообщений Pi = 1/N, тогда формула Шеннона переходит в формулу Хартли:

 

(22.09.2015) Для количественного выражения любой величины необходимо определить единицу измерения. За единицу измерения количества информации принимается такое количество информации, которое содержится в сообщении, уменьшающем неопределенность знания в два раза. Такая единица называется битом. В примере с монетой сообщение несет 1 бит информации (N= )

 

Рассмотрим информационное сообщение, как последовательность знаков определенной знаковой системы (алфавита).

Ограничений на максимальный размер алфавита теоретически не существует, но есть достаточный алфавит, который содержит практически все необходимые символы (латинские и русские буквы, цифры, знаки препинания, знаки арифметики и т.д.). Этот алфавит содержит 256 символов, т.к. 256 = , то 1 символ содержит 8 бит информации, т.е. 1 байт.

Кратные единицы измерения:

1 килобайт (Кбайт) =

1 мегабайт (Мбайт) =

1 гигабайт (Гбайт) =

1 терабайт (Тбайт) =

 

Математическая теория информации не охватывает всего богатства содержания понятия «информация», поскольку отвлекается от содержательной (смысловой) стороны сообщения.

 

Тема 3.3. Машинные коды.

Для кодирования чисел в компьютерах применяются специальные коды:

1. Прямой код. Изображение двоичного числа x в прямом коде [х]пр основано на представлении его прямого значения с закодированным знаком: + кодируется нулем, - кодируется единицей.

 

x1=1011

x2=-11011

x3=-0.1101

x4=0.1101

[x1]пр=01011

[x2]пр=111011

[x3]пр=1.1101

[x4]пр=0.1101

 

Под знак числа практически во всех компьютерах заносятся в старший разряд разрядной сетки. Например, при использовании 8ми разрядной сетки наши числа примут следующий вид:

[x1]пр= 00001011

[x2]пр= 10011011

[x3]пр=1.1101000

[x4]пр=0.1101000

 

Прямой код используется в компьютерах для хранения положительных и отрицательных чисел в ЗУ и при выполнении операции умножения.

2. Обратный код числа x обозначается [x]обр . Обратный код положительного числа совпадает с его прямым кодом. Обратный код отрицательного числа образуется следующим образом: в знаковом разряде записывается единица, в цифровых разрядах единицы заменяются нулями, а нули – единицами.

[x1]обр=01011

[x2]обр= 100100

[x3]обр= 1.0010

[x4]обр=0.1101

3. Дополнительный код положительного числа совпадает с его прямым кодом, а дополнительный код отрицательного числа образуется следующим образом: в знаковом разряде записывается единица. во всех цифровых разрядов единицы заменяются нулями. а нули – единицами, к младшему разряду числа прибавляют единицу.

[x1]доп=01011

[x2]доп=100100+1= 100101

[x3]доп= 1.0010+1=1.0011

[x4]доп=0.1101

 

Обратный и дополнительные коды позволяют операцию вычитания в ЭВМ заменить операцией сложения, что дает возможность сведения всех арифметических операций к выполнению операции сложения.

Иногда в кодах под знак отводится 2 разряда. Такие коды называют модифицированными.

[x3]мпр=11.1101

[x3]мобр=11.0010

[x3мдоп=11.0011

[x4]мпр=[x4]мобр=[x4]мдоп=00.1101

 

Основные законы логики

1. Переместительный закон (закон коммутативности):

A B = B A

AB = BA

2. Сочетательный закон (закон ассоциативности):

A B C = (A B) C

ABC = (AB)C

3. Распределительный закон (закон дистрибутивности):

A BC = (A B)(A C)

A(B C) = AB AC

4. Закон инверсии (правило де Моргана):

5. Выражения, имеющие всегда значение 1:

A

6. Закон исключенного третьего:

A

7. Выражения, имеющие всегда значение 0:

A

8. Закон противоречия:

A = 0

9. Двойное отрицание:

10. Повторение:

A

11. Поглощение:

A

12. Склеивание:

AB

13. Тождества:

1
0

Понятие «информации»

Слово «информация» происходит от латинского и означает сведение, разъяснение, ознакомление.

Понятие информации является базовым, т. е. должно быть пояснено на примерах или выявлено путем их сопоставления с содержанием других понятий.

Понятие «информация» является общенаучным, так как используется в различных науках и при этом в каждой науке это понятие связано с различными системами понятий.

1. Философское понятие информации: «информация есть отражение реального мира». Человек получает информацию с помощью органов чувств: 80-90% с помощью зрения, 10-15% с помощью слуха, 1-2% с помощью других органов чувств (обоняние, осязание и вкус).

Информация – это сведения, изменяющие наши знания об окружающем мире и понимание его.

 

2. Информация в физике. В физике мерой беспорядка, хаоса для термодинамической системы является энтропия системы, тогда как информация (анти энтропия) является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается, а величина информации увеличивается. Таким образом, в физике информация рассматривается как анти энтропия или энтропия с обратным знаком.

 

3. Математическая теория информации (американский ученый Клод Шеннон): информативность сообщения характеризуется содержащейся в нем полезной информацией – той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации, т. е. информация – это уменьшение неопределенности наших знаний. Такой подход к информации позволяет ее количественно измерять.

Количество информации

Существует формула, которая связывает между собой количество возможных информационных сообщений и количество информации, которое несет полученное сообщение:

N=2H

 

Где: N -количество возможных информационных сообщений;

H -количество информации, которое несет полученное сообщение;

 

Отсюда следует формула Хартли (для равновероятностных сообщений), которая позволяет определить количество информации.

H=log2N

 

 

В случае, когда вероятность событий неодинакова, для определения количества информации достаточно для выявления сообщения использовать формулу Шеннона:

 

 

Где: -вероятность того, что система находится в состоянии i;

N -количество возможных состояний;

 

В случае равновероятностных сообщений =1/N, тогда формула Шеннона переходит в формулу Хартли.

В случае равновероятностных сообщений Pi = 1/N, тогда формула Шеннона переходит в формулу Хартли:

 

(22.09.2015) Для количественного выражения любой величины необходимо определить единицу измерения. За единицу измерения количества информации принимается такое количество информации, которое содержится в сообщении, уменьшающем неопределенность знания в два раза. Такая единица называется битом. В примере с монетой сообщение несет 1 бит информации (N= )

 

 

9 Кодирование текстовой информации.

Для ввода текста в ЭВМ используются разные правила кодирования. Изначально для кодирования информации использовался код обмена информацией КОИ8 (1 символ несёт 1 байт информации).

Код ASCII имеет основной стандарт (шестнадцатеричные коды 00-7F) и его расширение (80-FF). Основной стандарт является международным и применяется для кодирования управляющих символов, цифр, знаков пунктуации, букв латинского алфавита и других символов. В расширении стандарта кодируются символы псевдографики и буквы национального алфавита (в разных странах – разные).

Для получения шестнадцатеричного кода символа необходимо сначала записать шестнадцатеричную цифру номера столбца, а затем шестнадцатеричную цифру номера строки.

В связи с увеличением числа разнообразных символов (букв алфавитов разных языков, математических, декоративных и других символов), появляется необходимость применять более длинные двоичные кодовые комбинации. Например, при кодировке Юникод (Unicode) используют 16 разрядов, что соответствует различным комбинациям.

В международной организации по Ст (ISO) была сформирована рабочая группа по разработке стандарта (ISO10646), который является стандартом для кодировки многоязыковых текстов. В основу этого стандарта положены коды стандарта Юникод.

С 1991 г. группа ISO106464 и группа Юникод ведут совместную работу в целях согласования этих стандартов. Слияние стандартов Юникод и ISO10646 зафиксировало только один развиваемый проект международного стандарта кодировок, и остановила сражение между стандартами, что лишь на пользу конечным потребителям.

 

10 Кодирование графической информации.

Форму представления на экране дисплея графического изображения, состоящего из отдельных точек (пикселей), называют растровой. Весь массив элементарных единиц изображения называют растром. Растровый графический редактор предназначен для создания рисунков, диаграмм. Степень четкости изображения зависит от количества строк на весь экран и количества точек в строке, которые представляют разрешающую способность экрана (разрешение). Каждый пиксель изображения может иметь либо черный, либо белый цвет. Поставив в соответствие черному цвету двоичный код 0, а белому – код 1 (или наоборот), можно закодировать в 1 бите состояние одного пикселя изображения.

В реально ч/б изображение входит множество промежуточных оттенков серого цвета. Если использовать только 2 дополнительные градации, то для того, чтобы закодировать цветовое состояние 1 пикселя, потребуется уже 2 бита. Общепринятым на сегодняшний день считается кодирование состояния одного пикселя с помощью 1 байта (256 оттенков серого цвета).

Цветное изображение может формироваться различными способами. Один из них – метод RGB (от слов красный, зеленый и синий), т.к. глаз человека воспринимает все цвета как сумму 3х основных цветов (красного, зеленого и синего).

Для получения цветного пикселя в одно и то же место экрана направляется не один, а сразу 3 цветных луча. Для кодирования каждого из цветов достаточно 1 бита. Нуль в бите будет означать, что в суммарном цвете данный основной отсутствует, а 1 – присутствует. Следовательно, для кодирования одного цветного пикселя потребуется 3 бита – по одному на каждый цвет. Тогда код 101 обозначает сиреневый цвет – красный есть, зеленого нет, синий есть.

Объем памяти, необходимый для хранения графического изображения, занимающего весь экран (видеопамяти), равен произведению разрешающей способности на количество бит, кодирующих одну точку.

 

(03.10.2015 г.)

Ввод и хранение в компьютере технических чертежей и им подобных графических изображений осуществляется по-другому. Любой чертёж состоит из отрезков, дуг и окружностей. Положение каждого отрезка на чертеже задается координатами его начала и конца. Окружность задается координатами центра и длиной радиуса. Дуга – координатами начала и конца, центром и радиусом. Для каждой линии указывается её тип: тонкая, штрих-пунктирная и т.д. Такая форма представления графической информации называется векторной. Информация о чертежах обрабатывается специальными программами.

 

12ПФ (переключ. Функции) могут быть выражены различными логическими формулами, благодаря возможности проведения над ними эквивалентных преобразований.

(фото)

На практике наиболее удобными для представления ПФ оказываются дизъюнктивные и конъюнктивные формы. Эти формы представляют собой дизъюнкции элементарных конъюнкций или конъюнкции элементарных дизъюнкций.

Конъюнкция (дизъюнкция) любого числа двоичных переменных А, В, С и т.д. является элементарной, если сомножителями (слагаемыми) в ней являются либо одиночные аргументы, либо отрицания одиночных аргументов.

Ранг элементарной конъюнкции (дизъюнкции) определяется числом переменных, входящих в эту конъюнкцию (дизъюнкцию).

Дизъюнктивной нормальной формой (ДНФ ПФ) называется дизъюнкция любого числа элементарных конъюнкций. (примеры на фото).

Совершенной ДНФ (СДНФ ПФ), имеющей n аргументов, называется такая форма, в которой все конъюнкции имеют ранг n. (пример на фото выше).

Конъюнктивной нормальной формой (КНФ ПФ) называется конъюнкция элементарных дизъюнкций. (пример)

Совершенной КНФ (СКНФ ПФ), имеющей n аргументов, называется такая форма, в которой все дизъюнкции имеют ранг n.(пример).

Конъюнктивные формы представления ПФ используются реже чем дизъюнктивные.

Чаще всего ПФ задается словесно, в виде таблицы истинности, алгебраическим выражением. По словесному описанию составляется таблица истинности, а затем записывается СДНФ ПФ.

1. СДНФ ПФ записывается по таблице истинности в следующей последовательности: Составить таблицу истинности по словесному описанию закона её функционирования;

2. Записать СДНФ ПФ логической схемой;

3. Минимизировать ПФ (упростить);

4. Построить на логических элементах логическую схему, реализующую.

 

 

Комбинационная схема создана полностью если известен закон её функционирования описываемый сиситемой пФ.

Комбинационная схема X1=f1(A,B,C….N) X2=f2(A,B,C…..N) Xn=Fn(A,B,C..N)

A x1

 

B x2

 

 

N xm

 

 

Последовательсноя схема состоит из логических и запоминающих элементов (триггеров).значения выходных сигналов, полседовательных схем. Зависят как от текущих значений входных сигналов, так и от значений входных сигналов поступавих на схему в предыдущие моменты (такты времени) автоматом называют дискретый преобразователь информаиции с конечным алфовитом Z, конечным входнымалфовитом W конечным множествот внутренным состояний A

Абстрактный автомат

 

Под законом функционировнаия понимается совокупность правил описывающих последовательность переключения состояния автомата и последовательность выходных сигналов в зависимости от последовательности входных сигналов.

Дишифраторы и шифраторы

Дешифратор- логическая схема предназначенная для преобразования n –разрядного 2го кода в один управляющий сигнал. Количство входов n и выходов N дешифратора свяано формулой N=2n

Выходы дешифратора имеют номинацию совпадающую с 10тичным представлением 2го числа (например если на входе код 101 тогда единичный сигнал будет на 5 в выходе дешифратора)

Условное графическое обозначение (УГО дешифратора)

Синтезируем дешифратор на 3 входа

 

Для схемной реализации дешифратора необходимо иметь N количество схем и с числом входов равных числу входов n дешифратора.

Шифратор-узел цифровой техники преобразующий 10тичный код в 2ный код рассмотрим принцип построения 10входового двоичного шифратора.

 

ОРГАНИЗАЦИЯ ЭВМ И СИСТЕМ

(Фоменко Наталья Константиновна)

Литература:

Мышляева И. М. – Цифровая схема – техника (2005г.)







Что вызывает тренды на фондовых и товарных рынках Объяснение теории грузового поезда Первые 17 лет моих рыночных исследований сводились к попыткам вычис­лить, когда этот...

ЧТО ТАКОЕ УВЕРЕННОЕ ПОВЕДЕНИЕ В МЕЖЛИЧНОСТНЫХ ОТНОШЕНИЯХ? Исторически существует три основных модели различий, существующих между...

Что делает отдел по эксплуатации и сопровождению ИС? Отвечает за сохранность данных (расписания копирования, копирование и пр.)...

Система охраняемых территорий в США Изучение особо охраняемых природных территорий(ООПТ) США представляет особый интерес по многим причинам...





Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:


©2015- 2024 zdamsam.ru Размещенные материалы защищены законодательством РФ.