Какое количество информации в битах содержится
Единицы измерения информации
Для информации существуют свои единицы измерения информации.
Если рассматривать сообщения информации как последовательность знаков,
то их можно представлять битами, а измерять в байтах, килобайтах,
мегабайтах, гигабайтах, терабайтах и петабайтах.
Давайте разберемся с этим, ведь нам придется измерять объем памяти и быстродействие компьютера.
Бит
Единицей измерения количества информации является бит – это наименьшая (элементарная) единица.
1бит – это количество информации, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо.
Байт
Байт – основная единица измерения количества информации.
Байтом называется последовательность из 8 битов.
Байт – довольно мелкая единица измерения информации. Например, 1 символ – это 1 байт.
Производные единицы измерения количества информации
1 байт=8 битов
1 килобайт (Кб)=1024 байта =210 байтов
1 мегабайт (Мб)=1024 килобайта =210 килобайтов=220 байтов
1 гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов
1 терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтов
Запомните, приставка КИЛО в информатике – это не 1000, а 1024, то есть 210 .
Методы измерения количества информации
Итак, количество информации в 1 бит вдвое уменьшает неопределенность знаний. Связь же между количеством возможных событий N и количеством информации I определяется формулой Хартли:
Алфавитный подход к измерению количества информации
При этом подходе отвлекаются от содержания (смысла) информации и
рассматривают ее как последовательность знаков определенной знаковой
системы. Набор символов языка, т.е. его алфавит можно рассматривать как
различные возможные события. Тогда, если считать, что появление символов
в сообщении равновероятно, по формуле Хартли можно рассчитать, какое
количество информации несет в себе каждый символ:
Вероятностный подход к измерению количества информации
Этот подход применяют, когда возможные события имеют различные
вероятности реализации. В этом случае количество информации определяют
по формуле Шеннона:
.
, где
I – количество информации,
N – количество возможных событий,
Pi – вероятность i-го события.
Задача 1.
Шар находится в одной из четырех коробок. Сколько бит информации несет сообщение о том, в какой именно коробке находится шар.
Имеется 4 равновероятных события (N=4).
По формуле Хартли имеем: 4=2i. Так как 22=2i, то i=2. Значит, это сообщение содержит 2 бита информации.
Задача 2.
Чему равен информационный объем одного символа русского языка?
В русском языке 32 буквы (буква ё обычно не используется), то есть количество событий будет равно 32. Найдем информационный объем одного символа. I=log2 N=log2 32=5 битов (25=32).
Примечание. Если невозможно найти целую степень числа, то округление производится в большую сторону.
Задача 3.
Чему равен информационный объем одного символа английского языка?
Задача 4.
Световое табло состоит из лампочек, каждая из которых может
находиться в одном из двух состояний (“включено” или “выключено”). Какое
наименьшее количество лампочек должно находиться на табло, чтобы с его
помощью можно было передать 50 различных сигналов?
С помощью N лампочек, каждая из которых может находиться в одном из двух состояний, можно закодировать 2N сигналов.
25< 50 <26, поэтому пяти лампочек недостаточно, а шести хватит. Значит, нужно 6 лампочек.
Задача 5.
Метеостанция ведет наблюдения за влажностью воздуха.
Результатом одного измерения является целое число от 0 до 100, которое
записывается при помощи минимально возможного количества битов. Станция
сделала 80 измерений. Определите информационный объем результатов
наблюдений.
В данном случае алфавитом является множество чисел от 0 до 100, всего
101 значение. Поэтому информационный объем результатов одного измерения
I=log2101. Но это значение не
будет целочисленным, поэтому заменим число 101 ближайшей к нему степенью
двойки, большей, чем 101. это число 128=27. Принимаем для одного измерения I=log2128=7 битов. Для 80 измерений общий информационный объем равен 80*7 = 560 битов = 70 байтов.
Задача 6.
Определите количество информации, которое будет получено
после подбрасывания несимметричной 4-гранной пирамидки, если делают один
бросок.
Пусть при бросании 4-гранной несимметричной пирамидки вероятности отдельных событий будут равны: p1=1/2, p2=1/4, p3=1/8, p4=1/8.
Тогда количество информации, которое будет получено после реализации одного из них, можно вычислить по формуле Шеннона:
I = -[1/2 * log2(1/2) + 1/4 * log2(1/4) + 1/8 * log(1/8) + 1/8 * log(1/8)] = 14/8 битов = 1,75 бита.
Задача 7.
В книге 100 страниц; на каждой странице – 20 строк, в каждой
строке – 50 символов. Определите объем информации, содержащийся в книге.
Задача 8.
Оцените информационный объем следующего предложения:
Тяжело в ученье – легко в бою!
Так как каждый символ кодируется одним байтом, нам только нужно
подсчитать количество символов, но при этом не забываем считать знаки
препинания и пробелы. Всего получаем 30 символов. А это означает, что
информационный объем данного сообщения составляет 30 байтов или 30 * 8 = 240 битов.
Источник
Эта статья о единице измерения информации; другие значения: бит (значения).
Один бит информации равный 0 (нулю) | Один бит информации равный 1 (единице) |
Бит (русское обозначение: бит; международное: bit; от англ. binary digit — двоичное число; также игра слов: англ. bit — кусочек, частица) — единица измерения количества информации. 1 бит информации — символ или сигнал, который может принимать два значения: включено или выключено, да или нет, высокий или низкий, заряженный или незаряженный; в двоичной системе исчисления это 1 (единица) или 0 (ноль).
В Российской Федерации обозначения бита, а также правила его применения и написания установлены «Положением о единицах величин, допускаемых к применению». В соответствии с данным положением бит относится к числу внесистемных единиц величин с областью применения «информационные технологии, связь» и неограниченным сроком действия[1]. Ранее обозначения бита устанавливались также в ГОСТ 8.417-2002[2]. Для образования кратных единиц применяется с приставками СИ и с двоичными приставками.
История[править | править код]
- В 1703 году в работе «Объяснение двоичной арифметики»[3]Лейбниц пишет, что двоичная система счисления была описана китайским королём (императором) и философом по имени Фу Си, который жил более чем за 4000 лет до Лейбница. Краткого современного названия китайский Liangyi (инь-ян («0»–«1»), китайский двоичный разряд, китайский бит) в то время пока ещё не имел. Китайский двубит — «сы-сян», образующий четыре диграммы, и китайский трибит — «ба-гуа», образующий восемь преднебесных и посленебесных триграмм, в современной международной терминологии собственных названий до сих пор не имеют.
- В 1948 году Клод Шеннон впервые использовал слово «bit» для обозначения наименьшей единицы количества информации в статье «Математическая теория связи». Происхождение этого слова он приписывал Джону Тьюки, использовавшему сокращение «bit» вместо слов «binary digit» в заметке лаборатории Белла от 9 января 1947 года.
Определения и свойства[править | править код]
Для трёх состояний светофора необходимо бита:
01 — красный,
10 — жёлтый,
11 — зелёный;
00 может кодировать четвёртое состояние «выключен»
В зависимости от области применения (математика, электроника, цифровая техника, вычислительная техника, теория информации и др.), бит может определяться следующими способами:
1. В математике
1.1. Бит — это один разряд двоичного кода (двоичная цифра). Может принимать только два взаимоисключающих значения: «да» или «нет», «1» или «0», «включено» или «выключено», и т. п.
1.2. Соответствует одному числовому разряду в двоичной системе счисления, принимающему значение «0» или «1» («ложь» или «истина»)[4].
2. В электронике, в цифровой технике и в вычислительной технике
2.1. Одному биту (одному двоичному разряду) соответствует один двоичный триггер (триггер, имеющий два взаимоисключающих возможных устойчивых состояния) или один разряд двоичной памяти.
Для перехода от количества возможных состояний (возможных значений) к количеству бит можно воспользоваться формулой на основе двоичного логарифма:
[возможных состояний] [битов].
Следовательно, для одного двоичного разряда (триггера)
[бит] [возможных состояний].
Для перехода от количества битов к количеству возможных состояний (возможных значений) можно воспользоваться формулой
[возможных состояний][битов].
2.2. Формула Хартли
где
— количество информации, бит;
— возможное количество различных сообщений (количество возможных состояний n-разрядного регистра), шт;
— количество букв в алфавите (количество возможных состояний одного разряда (триггера) регистра, в двоичной системе равно 2 («0» и «1»)), шт;
— количество букв в сообщении (количество разрядов (триггеров) в регистре), шт.
Применяется для измерения объёмов запоминающих устройств и объёмов цифровых данных.
3. В теории информации
3.1. Бит — базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода; см. информационная энтропия. Это тождественно количеству информации в ответе на вопрос, допускающий ответ «да» или «нет» и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленный вопрос).
3.2. Один бит равен количеству информации, получаемой в результате осуществления одного из двух равновероятных событий[5].
3.3. Бит — двоичный логарифм вероятности равновероятных событий или сумма произведений вероятности на двоичный логарифм вероятности при равновероятных событиях; см. информационная энтропия.
Применяется для измерения информационной энтропии. Отличается от бита для измерения объёмов запоминающих устройств и объёмов цифровых данных, так как большой по объёму массив данных может иметь очень малую информационную энтропию, то есть энтропийно может быть почти пустым.
Физические реализации[править | править код]
В цифровой технике бит (один двоичный разряд) реализуется триггером или одним двоичным разрядом памяти.
Возможны две физические (в частности электронные) реализации бита (одного двоичного разряда):
- однофазный («однопроводный») бит (двоичный разряд). Используется один выход двоичного триггера. Нулевой уровень обозначает либо сигнал логического «0», либо неисправность схемы. Высокий уровень обозначает либо сигнал логической «1», либо исправность схемы. Дешевле двухфазной реализации, но менее надёжен;
- двухфазный (парафазный, «двухпроводный») бит (двоичный разряд). Используются оба выхода двоичного триггера. При исправной схеме один из двух уровней высокий, другой — низкий. Неисправность схемы опознаётся либо высоким уровнем на обоих проводах (на обеих фазах), либо низким уровнем на обоих проводах (на обеих фазах). Дороже однофазной реализации, но более надёжен.
В вычислительной технике и сетях передачи данных значения «0» и «1» обычно передаются различными уровнями либо напряжения, либо тока. Например, в микросхемах на основе транзисторно-транзисторной логики значение «0» представляется напряжением в диапазоне от +0 до +0,8 В, а значение «1» — напряжением в диапазоне от +2,4 до +5,0 В.
Обозначения[править | править код]
В вычислительной технике, особенно в документации и стандартах, слово «бит» часто применяется в значении «двоичный разряд». Например: старший бит — старший двоичный разряд байта или слова.
Использование прописной буквы «Б» для обозначения байта соответствует требованиям ГОСТ и позволяет избежать путаницы между сокращениями от «байт» и «бит». Однако, следует учитывать, что в стандарте нет сокращения для «бит», поэтому использование записи «Гб» как синонима для «Гбит» неверно.
В международном стандарте МЭК (IEC) 60027-2 2005 года[6] для применения в электротехнической и электронной областях рекомендуются обозначения:
- «bit» для обозначения бита;
- «o» или «B» для обозначения октета или байта. «о» — единственное указанное обозначение во французском языке.
Аналогом бита в квантовых компьютерах является кубит (q-бит; «q» от англ. quantum, квант).
Двоичные логарифмы других оснований[править | править код]
Единицы измерения информации. Обозначения:
- зелёные штрихи на вертикальной шкале слева — значения натурального логарифма для целых чисел;
- жёлтая кривая — график натурального логарифма;
- бит показан чёрным и белым прямоугольниками, так как принимает одно из двух возможных значений;
- высота прямоугольника одного бита равна loge(2);
- «nibble» — тетрада или ниббл, 4 бита;
- трит показан тремя разноцветными прямоугольниками, так как принимает одно из трёх возможных значений;
- высота прямоугольника одного трита равна loge(3);
- харт (дит, децит) показан прямоугольником, залитым градиентом, принимает одно из 10-и возможных значений;
- высота прямоугольника одного харта (дита, децита) равна loge(10); количество синих штрихов равно 20; расстояние между штрихами равно loge(10)/20;
- ширина прямоугольников равна 1;
- горизонтальная линия, подписанная «1 Nat», имеет высоту 1 нат = log2e.
Замена логарифмируемого числа с 2 на e, 3, 4, 8, 10, 16, 27 и др. приводит соответственно к битовым (двоичным) эквивалентам редко употребляемых единиц нат, трит, тетрит (tetrit — tetral digit) (двубит), октит (octit — octal digit) (трибит), Харт (дит (dit — decimal digit), бан, децит (decit — decimal digit)), ниббл (гексадецит, четырёхбит), гептакозаит и др., равных соответственно:
бита,
бита,
1 двубит = бита,
1 трибит = бита,
бита,
1 четырёхбит = бита,
бита.
См. также[править | править код]
- NX-бит
- Бит чётности
- Битовые операции
- Двоичная система счисления
- Двоичный триггер
- Единицы измерения информации
- Битрейт
Примечания[править | править код]
Источник
- Главная
- Справочник
- Единицы измерений
- Разное
- Вычисление информационного объема сообщения
Информация (лат. informatio — разъяснение, изложение, набор сведений) — базовое понятие в информатике, которому нельзя дать строгого определения, а можно только пояснить:
- информация — это новые факты, новые знания;
- информация — это сведения об объектах и явлениях окружающей среды, которые повышают уровень осведомленности человека;
- информация — это сведения об объектах и явлениях окружающей среды, которые уменьшают степень неопределенности знаний об этих объектах или явлениях при принятии определенных решений.
Основными социально значимыми свойствами информации являются:
- полезность;
- доступность (понятность);
- актуальность;
- полнота;
- достоверность;
- адекватность.
Информационный процесс — это процесс сбора (приема), передачи (обмена), хранения, обработки (преобразования) информации.
Сбор информации — это процесс поиска и отбора необходимых сообщений из разных источников (работа со специальной литературой, справочниками; проведение экспериментов; наблюдения; опрос, анкетирование; поиск в информационно-справочных сетях и системах и т. д.).
Передача информации — это процесс перемещения сообщений от источника к приемнику по каналу передачи. Информация передается в форме сигналов — звуковых, световых, ультразвуковых, электрических, текстовых, графических и др. Каналами передачи могут быть воздушное пространство, электрические и оптоволоконные кабели, отдельные люди, нервные клетки человека и т. д.
Хранение информации — это процесс фиксирования сообщений на материальном носителе. Сейчас для хранения информации используются бумага, деревянные, тканевые, металлические и другие поверхности, кино- и фотопленки, магнитные ленты, магнитные и лазерные диски, флэш-карты и др.
Обработка информации — это процесс получения новых сообщений из имеющихся. Обработка информации является одним из основных способов увеличения ее количества. В результате обработки из сообщения одного вида можно получить сообщения других видов.
Защита информации — это процесс создания условий, которые не допускают случайной потери, повреждения, изменения информации или несанкционированного доступа к ней. Способами защиты информации являются создание ее резервных копий, хранение в защищенном помещении, предоставление пользователям соответствующих прав доступа к информации, шифрование сообщений и др.
Единицы измерения количества информации
Наименьшей единицей информации является бит (англ. binary digit (bit) — двоичная единица информации).
Бит — это количество информации, необходимое для однозначного определения одного из двух равновероятных событий.
Например, один бит информации получает человек, когда он узнает, опаздывает с прибытием нужный ему поезд или нет, был ночью мороз или нет, присутствует на лекции студент или нет и т. д.
В информатике принято рассматривать последовательности длиной 8 битов. Такая последовательность называется байтом.
Производные единицы измерения количества информации:
1 байт = 8 битов
1 килобайт (Кб) = 1024 байта = 210 байтов
1 мегабайт (Мб) = 1024 килобайта = 220 байтов
1 гигабайт (Гб) = 1024 мегабайта = 230 байтов
1 терабайт (Тб) = 1024 гигабайта = 240 байтов
В 1 бит можно записать один двоичный символ.
1 байт = 8 бит
В кодировке ASCII в один байт можно записать один 256 символьный код
В кодировке UNICODE один 256 символьный код занимает в памяти два байта
1 килобайт = 1024 байт
1 мегабайт = 1024 килобайт
1 гигабайт = 1024 мегабайт
1 терабайт = 1024 гигабайт
Чтобы вычислить информационный объем сообщения надо количество символов умножить на число бит, которое требуется для хранения одного символа
Например: двоичный текст 01010111 занимает в памяти 8 бит
Этот же текст в кодировке ASCII занимает 8 байт или 64 бита
Этот же текст в кодировке UNICODE занимает 16 байт или 128 бит.
Не забывайте, что пробелы надо тоже считать за символы поскольку они также набираются на клавиатуре и хранятся в памяти.
Мощность алфавита – это количество символов в алфавите или неопределенность из формулы Хартли.
Информационный вес одного символа – это значение i из формулы Хартли.
Отсюда можно сделать вывод, что не существует алфавита, состоящего из одного символа, поскольку тогда информационный вес этого символа был бы равен 0.
Чтобы перевести биты в байты надо число бит поделить на 8.
Например: 32 бита – это 4 байта.
Чтобы перевести байты в килобайты надо число байтов поделить на 1024.
Например: в 2048 байтах будет 2 килобайта. И так далее по следующим единицам измерения.
Чтобы перевести байты в биты надо число байт умножить на 8.
Например: в 3 байтах будет 24 бита.
Чтобы перевести килобайты в байты надо число килобайт умножить на 1024.
Например: в 3 килобайтах будет 3072 байта и соответственно 24576 бит. И так далее.
Если 128 символьным алфавитом записано сообщение из 5 символов, то объем сообщения – 35 бит.
Мощность алфавита – 128. Это неопределенность. Значит один символ занимает в памяти 7 бит, тогда 5 символов занимают в памяти 35 бит.
Определить, сколько времени будет передавать информацию страницы текста из 40 строк по 80 символов в строке модем, работающий со скоростью 1200 бит/сек.
Вычислим общее количество символов на странице. Это 40 х 80= 3200 символов.
Поскольку в кодировке ASCII один символ занимает в памяти 1 байт, общее количество информации на странице – 3200 байт, но скорость дана в бит/сек. Переведем 3200 байт в биты. Получим 25600 бит.
Разделим 25600 бит на 1200 бит/сек и получим 21,3 сек. Обратите внимание, что здесь нельзя округлить до 21 сек поскольку в этом случае вы не отправите всю заданную информацию.
Однако в случае передачи нескольких страниц текста для приближенного вычисления можно использовать результат 21,3 сек для дальнейших расчетов. Таким образом 10 страниц текста будут переданы за 213,3 сек.
10 страниц текста будут переданы за 213,3 сек.
Уровень8 класс ПредметИнформатика СложностьПростая
Документ содержит точечную черно-белую фотографию 10 х 15 см. Каждый квадратный сантиметр содержит 600 точек, каждая точка описывается 4 битами. Каков общий информационный объем документа в килобайтах?
Вычислим общее количество точек, содержащихся в фотографии. Обратите внимание, что 600 точек содержит не линейный сантиметр, а квадратный. Таким образом общее число точек будет 10 х 15 х 600 = 9000 точек. Поскольку точка описывается 4 битами, то общее число бит 9000 х 4 = 36000 бит.
Переведем биты в байты и получим 36000 : 8 = 4500 байт
Переведем байты в килобайты 4500 : 1024 = 4,39 килобайт.
Уровень8 класс ПредметИнформатика СложностьПростая
Метеорологическая станция ведет наблюдение за атмосферным давлением. Результатом одного измерения является целое число, принимающее значение от 720 до 780 мм ртутного столба, которое записывается при помощи минимально возможного количества бит. Станция сделала 80 измерений, Определите информационный объем результатов наблюдений.
Определим количество значений, которое надо закодировать. Это 61 значение.
780 – 720 + 1 = 61 (проверьте формулу на интервале по номерам очереди с 3 до 5).
Полученное число – это неопределенность. Значит для кодирования одного значения по формуле Хартли требуется 6 бит информации.
Сделано 80 измерений, получено 6 х 80 = 480 бит или 480 : 8 = 60 байт информации.
Уровень8 класс ПредметИнформатика СложностьПростая
Информационный объем текста, набранного на компьютере с использованием кодировки UNICODE (каждый символ кодируется 16 битами), — 2 Кб. Определить количество символов в тексте.
Чтобы определить количество символов в тексте, надо знать информационный объем всего текста и информационный вес одного символа.
Однако прежде, чем выполнять деление, необходимо привести величины к одинаковым единицам измерения.
2 кб= 2 х 1024 = 2048 байт весь объем информации.
каждый символ кодируется 16 битами или 2 байтами. Отсюда 2048 : 2 = 1024 символа в тексте.
Уровень8 класс ПредметИнформатика СложностьПростая
В велокроссе участвуют 119 спортсменов. Специальное устройство регистрирует прохождение каждым из участников промежуточного финиша, записывая его номер с использованием минимально возможного количества бит, одинакового для каждого спортсмена. Каков информационный объем сообщения, записанного устройством, после того как промежуточный финиш прошли 70 велосипедистов?
Т.к. в велокроссе участвуют 119 спортсменов, необходимо 119 различных номеров. Для кодирования 119 различных номеров необходимо минимум 7 бит на один номер (при помощи 6 бит можно закодировать 26=64 номеров, 7 бит – 27=128 номеров).
После прохождения промежуточного финиша в памяти устройства оказалось 70 номеров, т.е. 70*7=490 бит информации. Т.о. информационный объем сообщения равен 490 бит.
информационный объем сообщения равен 490 бит.
Уровень8 класс ПредметИнформатика СложностьПростая
Световое табло состоит из лампочек. Каждая лампочка может находиться в одном из трех состояний («включено», «выключено» или «мигает»). Какое наименьшее количество лампочек должно находиться на табло,чтобы с его помощью можно было передать 18 различных сигналов?
В данной задаче мощность алфавита равна трем («включено», «выключено» или «мигает»).
Количество необходимых сигналов 18, следовательно
18=3N,
N=3
Количество лампочек равно 3.
Уровень8 класс ПредметИнформатика СложностьПростая
Метеорологическая станция ведет наблюдение за влажностью воздуха. Результатом одного измерения является целое число от 0 до 100 процентов, которое записывается при помощи минимально возможного количества бит. Станция сделала 80 измерений. Определите информационный объем результатов наблюдений.
Определим информационный объем одного измерения: количество возможных вариантов равно 100 (т.к. результатом одного измерения является целое число от 0 до100 процентов), следовательно, информационный объем одного варианта измерения находится по формуле:
100 = 2×I, I = 7 бит.
Так как станция сделала 80 измерений, следовательно, информационный объем результатов наблюдений равен
7×80 = 560 бит
Переведем биты в байты:
560/8 = 70 байт
Информационный объем результатов наблюдений равен 70 байтам.
Уровень8 класс ПредметИнформатика СложностьПростая
Сколько существует различных последовательностей из символов «плюс» и «минус», длиной ровно в пять символов?
Мощность алфавита равна 2. Длина слова равна 5.
Количество различных последовательностей
К = 25 = 32
Количество различных последовательностей 32
Уровень8 класс ПредметИнформатика СложностьПростая
Для кодирования сообщений решено использовать последовательности разной
длины, состоящие из знаков «+» и «-». Сколько различных сообщений можно
закодировать, используя в каждом из них не менее 2-х и не более 6
знаков?
Мощность алфавита равна 2 (знаки «+» и «-»).
Количество различных сообщений для слов из 2-ух букв равно
22=4, для 3-ех букв 23=8, для 4-ех 24=16, для 5-и 25=32, для 6-и 26=64.
Нам осталось только просуммировать значения различных слов:
4+8+16+32+64=124
Можно закодировать 124 различных сообщений.
Уровень8 класс ПредметИнформатика СложностьПростая
В корзине лежат 8 черных шаров и 24 белых.Сколько бит информации несет сообщение о том, что достали черный шар?
Черные шарики составляют 1/4 из всех шаров, следовательно информация о том что достали черный шарик соответствует одному из 4 вариантов.
1 из 4 вариантов несет в себе количество информации равное 2 (4=22).
Также можно решить данную задачу по формуле Шеннона:
количество вариантов получения черного шарика равна 4, следовательно,
I=log24 = 2 бита.
Уровень8 класс ПредметИнформатика СложностьПростая
В коробке лежат 64 цветных карандаша. Сообщение о том, что достали белый карандаш, несет 4 бита информации. Сколько белых карандашей было в коробке?
Определим количество возможных событий (вариантов получения белого карандаша) по формуле Шеннона:
log2N=4, следовательно, N=16.
Количество возможных событий получения белого карандаша равно 16, следовательно, количество белых карандашей составляет 1/16 всех карандашей.
Всего карандашей 64, следовательно белых карандашей 64/16=4.
Уровень8 класс ПредметИнформатика СложностьПростая
В некоторой стране автомобильный номер длиной 5 символов составляется из заглавных букв (всего используется 30 букв) и десятичных цифр в любом порядке. Каждый символ кодируется одинаковым и минимально возможным количеством бит, а каждый номер – одинаковым и минимально возможным количеством байт. Определите объем памяти, необходимый для хранения 50 автомобильных номеров.
Количество символов используемых для кодирования номера составляет:
30 букв + 10 цифр = 40 символов.
Количество информации несущий один символ равен 6 бит (2I=40, но количество информации не может быть дробным числом, поэтому берем ближайшую степень двойки большую количества символов 26=64).
Мы нашли количество информации заложенное в каждом символе, количество символов в номере равно 5, следовательно 5*6=30 бит. Каждый номер равен 30 битам информации, но по условию задачи каждый номер кодируется одинаковым и минимально возможным количеством байт, следовательно нам необходимо узнать сколько байт в 30 битах. Если разделить 30 на 8 получится дробное число, а нам необходимо найти целое количество байт на каждый номер, поэтому находим ближайший множитель 8-ки который превысит количество бит, это 4 (8*4=32).
Каждый номер кодируется 4 байтами.
Для хранения 50 автомобильных номеров потребуется: 4*50=200 байт.
Уровень8 класс ПредметИнформатика СложностьПростая
Если материал понравился Вам и оказался для Вас полезным, поделитесь им со своими друзьями!
Bitcoin, Биткойн, часто Биткоин (от англ. bit — единица информации «бит», англ. coin — «монета») — пиринговая (как торрент или e-mule) электронная платёжная система, использующая одноимённую виртуальную валюту.
1 зиверт — это количество энергии, поглощённое килограммом биологической ткани, равное по воздействию поглощенной дозе 1 Гр.
Информационный объем текста складывается из информационных весов составляющих его символов.
Лошадиная сила — единица мощности. Она примерно равна значению в 75 кгс/м/с., что соответствует усилию, которое необходимо затратить для подъёма груза в 75 кг. на высоту одно метра за одну секунду.
Система древнерусских мер длины включала в себя следующие основные меры: версту, сажень, аршин, локоть, пядь и вершок.
Количество теплоты – это физическая величина, показывающая, какая энергия передана телу в результате теплообмена.
Согласно нормам Всемирной Организацией Здравоохранения (ВОЗ)
Гектар — это площадь квадрата со стороной 100 м. Ар – площади квадрата со стороной в 10 м. 1 сотка это 100 квадратных метров
1 ом представляет собой электрическое сопротивление между двумя точками проводника, когда постоянная разность потенциалов 1 вольт, приложенная к этим точкам, создаёт в проводнике ток 1 ампер, а в проводнике не действует какая-либо электродвижущая сила.
Один морской узел равен одной тысяче восемьсот пятьдесят двум метрам или одному километру восемьсот пятьдесят двум метрам
Источник