Информация
<<  Информация Информация  >>
Литература
Литература
Литература
Литература
Синтаксическая мера информации
Синтаксическая мера информации
Семантическая мера информации
Семантическая мера информации
Таблица кодировки ASCII
Таблица кодировки ASCII
Неверная кодировка
Неверная кодировка
Кодирование звука*
Кодирование звука*
Картинки из презентации «Информация» к уроку информатики на тему «Информация»

Автор: тест. Чтобы познакомиться с картинкой полного размера, нажмите на её эскиз. Чтобы можно было использовать все картинки для урока информатики, скачайте бесплатно презентацию «Информация.ppt» со всеми картинками в zip-архиве размером 470 КБ.

Информация

содержание презентации «Информация.ppt»
Сл Текст Сл Текст
1Информация. 20программирования. 20. 20.
2Литература. А.В.Могилев, Н.И.Пак, 21Кодирование информации. Источник
Е.К.Хённер Информатика. - М.: Академия, представляет сообщение в алфавите, который
2009. - 848 с. . Л.З. Шауцукова называется первичным, далее это сообщение
Информатика Книга 1. Теория. попадает в устройство, преобразующее и
http://book.kbsu.ru. 2. представляющее его во вторичном алфавите.
3Наука исследования свойств знаков и Код – правило, описывающее соответствие
систем. Семиотика (греч. semeion – знак, знаков (или их сочетаний) первичного
признак) – наука, занимающаяся алфавита знаком (их сочетаниями)
исследованием свойств знаков и знаковых вторичного алфавита. Кодирование – перевод
систем. Семиотика выделяет следующие информации, представленной сообщением в
уровни передачи информации: первичном алфавите, в последовательность
Синтаксический, рассматриваются внутренние кодов. Декодирование – операция обратная
свойства сообщений. Семантический, кодированию. Кодер – устройство,
анализируется смысловое содержание обеспечивающее выполнение операции
сообщения, его отношение к источнику кодирования. Декодер – устройство,
информации. Прагматический, производящее декодирование. Операции
рассматривается потребительское содержание кодирования и декодирования называются
сообщения, его отношение к получателю. 3. обратимыми, если их последовательное
4Синтаксический уровень. Идея: Это применение обеспечит возврат к исходной
технические проблемы совершенствования информации без каких-либо ее потерь. 21.
методов передачи сообщений и их 22Математическая постановка задачи
материальных носителей – сигналов. кодирования. А – первичный алфавит.
Проблемы доставки получателю сообщений. Состоит из N знаков со средней информацией
Полностью абстрагируются от смыслового на знак IА . В – вторичный алфавит из М
содержания сообщений и их целевого знаков со средней информацией на знак IВ .
предназначения. Информация - данные Сообщение в первичном алфавите содержит n
Учитывают: Тип носителя. Способ знаков, а закодированное – m знаков. Is
представления информации. Скорость (A)-информация в исходном сообщении, If
передачи и обработки. Размеры кодов (B)-информация в закодированном сообщении.
представления информации и т.д. 4. 4. 22.
5Семантический уровень. Идея: Проблемы 23Математическая постановка задачи
связаны с формализацией и учетом смысла кодирования. IS (A) ? If (B) – условие
передаваемой информации. Проблемы этого обратимости кодирования, т.е не
уровня чрезвычайно сложны, так как исчезновения информации. n* IА ? m* IB
смысловое содержание информации больше (заменили произведением числа знаков на
зависит от получателя, чем от семантики среднее информационное содержание знака).
сообщения, представленного на каком-либо m/n –характеризует среднее число знаков
языке. На данном уровне: Анализируется вторичного алфавита, который используется
сведенья, которые отражает информация. для кодирования одного знака первичного.
Выявляется смысл информации. Выявляется Обозначим его К (А, В) К (А, В)? IA/IB
содержание информации. Осуществляется Обычно К (А, В) >1 Кmin (А, В)= IA/IB –
обобщение. 5. 5. минимальная длинна кода. 23.
6Прагматический уровень. Идея: Проблемы 24Первая теорема Шеннона. Примером
этого уровня связаны с определением избыточности может служить предложение «в
ценности и полезности информации для словох всо глосноо зомононо боквой о».
потребителя. Интересуют последствия от Существует возможность создания системы
получения и использования данной эффективного кодирования дискретных
информации потребителем. На данном уровне: сообщений, у которой среднее число
Ценность информации может быть различной двоичных символов на один символ сообщения
для разных потребителей. Фактор доставки асимптотически стремится к энтропии
актуальности доставки и использования. 6. источника сообщений . Х = {xi } -
6. кодирующее устройство – В Требуется
7Классификация мер информации. оценить минимальную среднюю длину кодовой
Синтаксическая мера информации комбинации. Шенноном была рассмотрена
Семантическая мера информации ситуация, когда при кодировании сообщения
Прагматическая мера информации. 7. 7. в первичном алфавите учитывается различная
8Синтаксическая мера информации. На вероятность появления знаков, а также
синтаксическом уровне для измерения равная вероятность появления знаков
информации вводятся два параметра. Объем вторичного алфавита. Тогда: 24. 24.
информации (объемный подход). Количество 25Вторая теорема Шеннона. При наличии
информации (вероятностный подход). 8. помех в канале всегда можно найти такую
9Объемный подход ( VД ). Идея: Если систему кодирования, при которой сообщения
количество информации, содержащейся в будут переданы с заданной достоверностью.
сообщении из одного символа, принять за При наличии ограничения пропускная
единицу, то объем информации (данных) VД в способность канала должна превышать
любом другом сообщении будет равен производительность источника сообщений.
количеству символов (разрядов) в этом Первоначально последовательность Х = {xi}
сообщении. В памяти компьютера объем кодируется символами из В так, что
информации записывается двоичными знаками достигается максимальная пропускная
и равен количеству требуемых для этой способность (канал не имеет помех). Затем
записи двоичных кодов. Объём данных (VД ) в последовательность из В длины n вводится
в техническом смысле этого слова как r символов и по каналу передается новая
информационный объём сообщения или как последовательность из n + r символов.
объём памяти, необходимый для хранения Число возможных последовательностей длины
сообщения без каких-либо изменений. 9. n + r больше числа возможных
10Единицы измерения информации. 1 бит = последовательностей длины n. Множество
кол-во двоичных цифр (0 и 1) Пример: код всех последовательностей длины n + r может
11001011 имеет объем данных V= 8 бит 1 быть разбито на n подмножеств, каждому из
байт = 8 бит 1 Кбайт = 1024 байт = 210 которых сопоставлена одна из
байт 1 Мбайт = 1024 Кбайт = 220 байт =1 последовательностей длины n. При наличии
048 576 байт; 1 Гбайт = 1024 Мбайт = 230 помехи на последовательность из n + r
байт = 1 073 741 824 байт; 1 Тбайт = 1024 символов выводит ее из соответствующего
Гбайт = 240 байт = 1 099 511 627 776 байт. подмножества с вероятностью сколь угодно
10. 10. малой. 25. 25.
11Вероятностный подход. События, о 26Вторая теорема Шеннона. Это позволяет
которых нельзя сказать произойдут они или определять на приемной стороне канала,
нет, пока не будет осуществлен какому подмножеству принадлежит искаженная
эксперимент, называются случайными. помехами принятая последовательность длины
Отдельный повтор случайного события п + r, и тем самым восстановить исходную
называется опытом, а интересующий нас последовательность длины п. Эта теорема не
исход этого опыта – благоприятным. Если N дает конкретного метода построения кода,
– общее число опытов, а NА - количество но указывает на пределы достижимого в
благоприятных исходов случайного события создании помехоустойчивых кодов,
А, то отношение NA/N, называется стимулирует поиск новых путей решения этой
относительной частотой появления события проблемы. Способ кодирования только
А. В разных сериях опытов частота может устанавливает факт искажения сообщения,
быть различна, но при увеличении что позволяет потребовать повторную
количества опытов относительная частота передачу. Используемый код находит и
все меньше отклоняется от некоторой автоматически исправляет ошибку передачи.
константы, ее наличие называется 26. 26.
статической устойчивостью частот. Если все 27Особенности вторичного алфавита при
исходы опыта конечны и равновозможные, то кодировании. Элементарные коды 0 и 1 могут
их вероятность равна где N - число иметь одинаковые длительности (t0 = t1)
исходов. 11. или разные (?). Длина кода может быть
12Энтропия (часть1). Энтропия – одинаковой для всех знаков первичного
численная мера измеряющая алфавита (код равномерный) или различной
неопределенность. Некоторые свойства: (неравномерный код) Коды могут строиться
f(1)=0, так как при N=1 исход не является для отдельного знака первичного алфавита
случайным и неопределенность отсутствует. (алфавитное кодирование) или для их
f(N) возрастает с ростом N, чем больше комбинаций (кодирование блоков, слов). 27.
возможных исходов, тем труднее предсказать 28Равномерное алфавитное кодирование.
результат. Если a и b два независимых Представление чисел в компьютере.
опыта с количеством равновероятных исходов Компьютерный алфавит С включает буквы
Na и Nb, то мера их суммарной латинского алфавита – 52 шт. Букв русского
неопределенности равна сумме мер (прописные и строчные) – 66 шт. Цифры 0…9
неопределенности каждого из опытов: – 10 шт. Знаки математических операций,
Количество информации – разность препинания, спецсимволы – 20 штук Итого:
неопределенностей “ДО” и ”ПОСЛЕ” опыта: 148. 28. 28.
12. 29К (С, 2) ? log2 148 ? 7,21, так как
13Энтропия (часть 2). общее число длина кода – целое число, следовательно, К
исходов М – число попыток (пример: Х = 62 (С,2) = 8бит = 1байт. Именно такой способ
= 36) Энтропия системы из М бросаний кости кодирования принят в компьютерных
будет в M раз больше, чем энтропия системы системах. Один байт соответствует
однократного бросания кости - принцип количеству информации в одном знаке
аддитивности энтропии: 13. 13. алфавита при их равновероятном
14Формула Хартли и Шеннона. Обозначим распределении. Это объемный способ
через K Получим f(X) = K ? lnX или H = K ? измерения информации. Присвоение символу
lnX, таким образом получим формулу Хартли конкретного двоичного кода фиксируется в
для равновозможных исходов Формула Шеннона кодовой таблице, где устанавливается
для неравновозможных исходов. 14. 14. соответствие между символами и их
15Энтропия (часть 3). Информация – это порядковыми номерами. 29.
содержание сообщения, понижающего 30Таблицы кодировки. Таблица, в которой
неопределенность некоторого опыта с устанавливается однозначное соответствие
неоднозначным исходом; убыль связанной с между символами и их порядковыми номерами,
ним энтропии является количественной мерой называется таблицей кодировки. Для разных
информации. Количество информации (в типов ЭВМ используют различные таблицы
битах), заключенное в двоичном слове, кодировки: ANSI - (American National
равно числу двоичных знаков в нем. 15. Standards Institute) ASCII - (American
16Семантическая мера информации. При Standard Cod for Information Interchange).
sp?0 пользователь не воспринимает, не 30.
понимает поступающую информацию; при sp?? 31Таблица кодировки ASCII. 31. 31.
пользователь все знает, и поступающая 32Код обмена информации ASCII.
информация ему не нужна. Тезаурус — это Первоначально – 7 бит N=27=128 символов
совокупность сведений, которыми 0…31- всевозможные управляющие символы
располагает пользователь или система. 32…127 – видимые на экране символы. Сейчас
Относительной мерой количества – 8 бит N=28 =256 символов 128…255-
семантической информации может служить национальные алфавиты,псевдографика
коэффициент содержательности С, который 01000001 = буква А = 65. 32.
определяется как отношение количества 33Системы кодирования. Кои-7.
семантической информации к ее объему. Windows-1251. Кои-8. ISO. Unicode. UTF-8.
Зависимость количества семантической 33.
информации, воспринимаемой потребителем, 34Неверная кодировка. 34.
от его тезауруса. 16. 35Кодирование текстовой информации. 35.
17Прагматическая мера информации. Эта 36Кодирование графической информации*.
мера определяет полезность информации Растровое изображение представляет собой
(ценность) для достижения пользователем однослойную сетку точек, называемых
поставленной цели. Эта мера также величина пикселами (pixel, от англ. picture
относительная, обусловленная особенностями element). Код пиксела содержит информации
использования этой информации в той или о его цвете. Векторное изображение
иной системе. Ценность информации многослойно. Каждый элемент векторного
целесообразно измерять в тех же самых изображения - линия, прямоугольник,
единицах (или близких к ним), в которых окружность или фрагмент текста -
измеряется целевая функция. Целевая располагается в своем собственном слое,
функция – есть математическое выражение пикселы которого устанавливаются
некоторого критерия качества одного независимо от других слоев. Объем
объекта (решения, процесса и т.д.) в графического файла в битах определяется
сравнении с другим. 17. как произведение количества пикселей на
18Сопоставление мер информации. Мера разрядность цвета (битовую глубину). 36.
информации. Единицы измерения. Примеры 37Кодирование графической информации.
(для компьютерной области). Бит/пиксель. 4 бита. 8 бит. 16 бит. 24
Синтаксическая: шенноновский подход бита. Число цветов. 24=16цв. 28=256цв.
компьютерный подход. Степень уменьшения 216= 65536цв. 224= 16777216цв. 640x480.
неопределенности Единицы представления 150 Кбайт. 300 Кбайт. 600 Кбайт. 900
информации. Вероятность события Бит, байт. Кбайт. 800x600. 234,4 Кбайт. 468,8 Кбайт.
Кбайт и т.д. Семантическая. Тезаурус 937,6 Кбайт. 1,4 Мбайт. 1024x768. 384
Экономические показатели. Пакет прикладных Кбайт. 768 Кбайт. 1,5 Мбайт. 2,25 Мбайт.
программ, персональный компьютер, 1280x1024. 640 Кбайт. 1,25 Мбайт. 2,5
компьютерные сети и т.д. Рентабельность, Мбайт. 3,75 Мбайт. 37.
производительность, коэффициент 38Кодирование звука*. Звук - это
амортизации и т.д. Прагматическая. колебания воздуха Процесс преобразования
Ценность использования. Емкость памяти, аналогового сигнала в последовательность
производительность компьютера, скорость двоичных чисел называется дискретизацией
передачи данных и т.д. Денежное выражение (или оцифровкой), а устройство,
Время обработки информации и принятия выполняющее его - аналого-цифровым
решений. 18. 18. преобразователем (АЦП). Для того чтобы
19Кодирование информации. Информатика. воспроизвести закодированный таким образом
20Абстрактный алфавит. Алфавит - звук, нужно выполнить обратное
множество знаков, в котором определен их преобразование (для него служит
порядок (общеизвестен порядок знаков в цифро-аналоговый преобразователь - ЦАП), а
русском алфавите: А, Б,..., Я). Алфавит затем сгладить получившийся ступенчатый
прописных русских букв Алфавит Морзе сигнал. 38.
Алфавит клавиатурных символов ПЭВМ IBM 39Кодирование видеоинформации*.
(русифицированная клавиатура) Алфавит V=800*600*16*25*30=576*107(бит)=72*107(бай
знаков правильной шестигранной игральной )=687(Мбайт). Число кадров вычисляется как
кости Алфавит арабских цифр Алфавит произведение длительности видеоклипа на
шестнадцатиричных цифр Алфавит двоичных скорость кадров , то есть их количество в
цифр Двоичный алфавит «точка, «тире» 1 с. При разрешении 800*600 точек,
Двоичный алфавит «плюс», «минус» Алфавит разрядности цвета C=16, скорости кадров
прописных латинских букв Алфавит римской v=25 кадров/c, видеоклип длительностью 30
системы счисления Алфавит языка блок-схем с будет иметь объем: 39.
изображения алгоритмов Алфавит языка 40Вопросы? 40.
Информация.ppt
http://900igr.net/kartinka/informatika/informatsija-250702.html
cсылка на страницу

Информация

другие презентации на тему «Информация»

«Измерение информации» - Вероятностный подход. Информация. Подходы к измерению информации. Одну и ту же информацию разные люди могут оценить по разному. Произошедшее событие. Алфавит – множество символов, используемых для записи текста. Измерение информации. Информация. Алфавит из 256 символов используется для представления текстов в компьютере.

«Виды информации» - Что можно сказать об объекте? Осязательная информация. Зрительная, обонятельная, осязательная, вкусовая, звуковая информация. Вкусовая информация. Обонятельная информация. По способу восприятия: Слуховая, зрительная, осязательная информация. Виды информации. Органы чувств. Зрительная информация. Зрительная, вкусовая, обонятельная, осязательная информация.

«Информационные процессы» - Информационные процессы в животном мире. В индустриальном обществе большую роль играет процесс нововведений в производстве. Индустриальное общество – общество, определяемое уровнем развития промышленности, ее технической базой. Информационные процессы в науке. Иформационный процесс – процесс, в результате которого осуществляется прием, передача информации.

«Информация 10 класс» - Отражаемый луч улавливается датчиком. Врождённые информационные методы основаны на системе чувств восприятия субъекта и на мышлении. «Информация. Восприятие (сбор). Естественные информационные методы бывают врожденными и приобретенными. Совокупность кодовых комбинаций называется кодом. Структура информационного процесса.

«Процессы информации» - Ребенка ничего не интересует, кроме игрушек и материнской ласки. Отсюда и окружность с малым радиусом. Синтез белков – своеобразный процесс обработки информации в клетке. Вещество, хранящее информацию в клетке. Селекция – ещё одна перспектива. Клеточная инженерия. Транскрипция в ядре. Редупликация в период интерфазы в клетке как биологическая основа передачи информации.

«Понятие об информации» - 1. Что такое информация. Полезная. Полная. Актуальная. 2. Восприятие информации. Что такое информация? Понятие об информации. Восприятие информации Свойства информации. Понятная. Достоверная. 3. Свойства информации. Информация об объекте.

Информация

28 презентаций об информации
Урок

Информатика

130 тем
Картинки