ТВ и эволюция нетерпимостиРефераты >> Журналистика >> ТВ и эволюция нетерпимости
Бит – основная единица измерения информации. Кроме нее используются и другие единицы. Следующая по величине единица – байт. Байт вводится как информационный вес символа из алфавита мощностью 256. Поскольку 256 = 28, то 1 байт = 8 бит.
Представляя ученикам более крупные единицы: килобайт, мегабайт, гигабайт – нужно обратить внимание на то, что мы привыкли приставку «кило» воспринимать, как увеличение в 1000 раз. В информатике это не так. Килобайт больше байта в 1024 раза, а число 1024 = 210. Так же относится и «мега» по отношению к «кило» и т.д. Тем не менее часто при приближенных величинах используют коэффициент 1000.
В рамках углубленного курса учитель может изложить алфавитный подход в более адекватном варианте, без допущения равновероятности символов.
Многие учебники содержательную линию «Информация и информационные процессы начинают одинаково, с того, что понятие «Информация» стало одним из фундаментальных понятий в современной науке. Наряду с понятиями «вещество», «энергия», «пространство» и «время». Оно составляет основу научной картины мира.
2.3. Методика решения задач по темам раздела «Информация»
Задачи по теме «Измерение информации. Содержательный подход» связаны с использованием уравнения 2i = N. Возможны два варианта решения задачи:
Дано N, найти i;
Дано i, найти N.
В случаях, когда N равно целой степени двойки, желательно, чтобы ученики выполняли вычисления «в уме». Как уже говорилось выше, полезно запомнить ряд целых степеней числа 2 хотя бы до 210. В противном случае следует использовать таблицу решения уравнения 2i = N, в которой рассматриваются значения N от 1 до 64.
Для основного уровня изучения базового курса предлагаются задачи, связанные с сообщениями о равновероятных событиях. Ученики должны это понимать и обязательно качественно обосновывать, используя термин «равновероятные события».
Пример 1.
Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик?
Решение: При случайном вытаскивании карт из перемешанной колоды ни одна из карт не имеет преимущества быть выбранной по сравнению с другими. Следовательно, случайный выбор любой карты, в том числе и дамы пик – событие равновероятное. Отсюда следует, что неопределенность знаний о результате вытаскивания карты равна 32 – числу карт в колоде. Если i - количество информации в сообщении о результате вытаскивания одной карты (дамы пик), то имеем уравнение:
2i = 32.
Поскольку 32 = 25 , то, следовательно, i = 5 бит.
На тему данной задачи учитель может предложить еще несколько заданий. Например: сколько информации несет сообщение о том, что из колоды карт достали карту красной масти? (1 бит, так как красных и черных карт одинаковое количество).
Сколько информации несет сообщение о том, что из колоды карт достали карту бубновой масти? (2 бита, так как всего в колоде четыре масти и количество карт в них равные).
Пример 2.
Проводится две лотереи: «4 из 32» и «5 из 64». Сообщение о результатах какой из лотерей несет больше информации?
Решение: У этой задачи есть «подводный камень», на который может натолкнуться учитель. Первый путь решения тривиальный: вытаскивание любого номера из лотерейного барабана – события равновероятные. Поэтому в первой лотереи количество информации в сообщение об одном номере равно 5 бит (25 = 32), а во второй – 6 бит (26 = 64). Сообщение о четырех номерах в первой лотерее несет 5 * 4 = 20 бит. Следовательно, сообщение о результатах второй лотереи несет больше информации, чем о результатах первой.
Но возможен и другой путь рассуждения. Представьте себе, что вы наблюдаете за розыгрышем лотереи. Выбор первого шара производится из 32 шаров в барабане. Результат несет 5 бит информации. Но второй шар будет выбираться уже из 31 номера, третий – из 30 номеров, четвертый – из 29. Значит, количество информации, которое несет второй номер, находится из уравнения: 2i = 31. Используя таблицу решения этого уравнения, находим: i = 4,95420 бит, для третьего номера: 2 i = 30; i = 4,90689 бит, для четвертого номера: 2 i = 29; i = 4,85798 бит. В сумме получаем: 5 + 4,95420 + 4,85798 + 4,90689 = 19,71907 бит. Аналогично и для второй лотереи. Конечно, на окончательном выводе такие подсчеты не отразятся. Можно было вообще, ничего не вычисляя, сразу ответить, что второе сообщение несет больше информации чем первое. Но здесь интересен сам путь вычислений с учетом «выбывания участников».
Последовательность событий в этом случае не является независимой друг от друга (кроме первой). Это, как мы увидели, отражается в различии информативности сообщении о каждом из них. Первый (тривиальный) вариант решения задачи получен в предположении независимости событий и является в таком случае неточным.
В условиях задач по теме «Измерение информации. Алфавитный подход» связываются между собой следующие величины: мощность символьного алфавита – N; информационный вес символа – i; число символов в тексте (объем текста) – К; количество информации, заключенной в тексте (информационный объем текста) – I. Кроме того, при решении задач требуется знать связь между различными единицами информации: бит, байт, Кбайт, Мбайт, Гбайт.
Задачи, соответствующие уровню минимального содержания базового курса, рассматривают лишь приближение равновероятного алфавита, т.е. допущение того, что появление любого символа в любой позиции текста – равновероятно. В задача для углубленного уровня обучения используется более реальное предположение о неравновероятности символов. В таком случае, появляется еще один параметр – вероятность символа (р).
Пример 3.
Два теста содержат одинаковое количество символов. Первый текст составлен в алфавите мощностью 32 символа, второй – мощностью 64 символа. Во сколько раз отличается количество информации в этих текстах?
Решение: В равновероятном приближении информационный объем текста равен произведению числа символов на информационный вес одного символа:
I = K*i
Поскольку оба текста имеют одинаковое число символов (К), то различия информационных объемов определяется только разницей в информативности символов алфавита (i). Найдем i1 для первого алфавита и i2 для второго алфавита:
2i1 = 32, отсюда i1 = 5 бит;
2i2 = 64, отсюда i2 = 6 бит.
Следовательно, информационные объемы первого и второго текстов будут равны:
I1 = К*5 бит, I2 = К*6 бит.
Отсюда следует, что количество информации во втором тексте больше, чем в первом в 6/5, или в 1,2 раза.
Задачи по теме «Информация»
1. Представление информации.
1. Предположим, что на «марсианском» языке выражение lot do may означает кот съел мышь; may si – серая мышь; ro do – он съел. Как написать на «марсианском» языке «серый кот»?
Ответ: lot si.
2. Фраза на некотором языке «Каля маля» в переводе на русский означает «Красное солнышко», «Фаля маля баля» – «Большая красная груша», «Цаля баля» - «Большое яблоко». Как на этом языке записать слова: груша, яблоко, солнышко?
Ответ: «Цаля» – «Яблоко», «Баля» – «Груша», «Каля» – «Солнышко».