WikiDer > Кусочек
Единицы из Информация |
В кусочек это базовая единица информации в вычисление и цифровой коммуникации. Имя это чемодан из двоичный символ.[1] Бит представляет собой логическое состояние с одним из двух возможных значения. Эти значения чаще всего представлены как "1"или же"0", но другие представления, такие как истинный/ложный, да/нет, +/−, или же на/выключенный общие.
Соответствие этих значений физическим состояниям лежащих в основе место хранения или же устройство является вопросом соглашения, и разные назначения могут использоваться даже в одном и том же устройстве или программа. Это может быть физически реализовано с помощью устройства с двумя состояниями.
Символ двоичной цифры либо кусочек по рекомендации IEC 80000-13: Стандарт 2008 года или символ нижнего регистра б, как рекомендовано IEEE 1541-2002 и IEEE Std 260.1-2004 стандарты.
Смежную группу двоичных цифр обычно называют битовая строка, битовый вектор или одномерный или более битовый массивГруппа из восьми двоичных цифр называется одной.байт, но исторически размер байта строго не определен. Часто полуслова, полные, двойные и четверные слова состоят из числа байтов, которое является малой степенью двойки.
В теория информации, один бит - это информационная энтропия из двоичный случайная величина, равная 0 или 1,[2] или информация, которая получается, когда становится известно значение такой переменной.[3][4] Как единица информации, бит также известен как Шеннон,[5] названный в честь Клод Э. Шеннон.
История
Кодирование данных дискретными битами использовалось в перфокарты изобретен Базиль Бушон и Жан-Батист Сокол (1732 г.), разработанный Жозеф Мари Жаккард (1804 г.), а затем принят Семен Корсаков, Чарльз Бэббидж, Герман Холлерит, и первые производители компьютеров любят IBM. Другой вариант этой идеи - перфорированный бумажная лента. Во всех этих системах носитель (карта или лента) концептуально содержал множество позиций отверстий; каждая позиция могла быть либо пробита, либо нет, таким образом неся один бит информации. Кодирование текста битами также использовалось в азбука Морзе (1844) и ранние машины цифровой связи, такие как телетайпы и биржевые машины (1870).
Ральф Хартли предложил использовать логарифмическую меру информации в 1928 году.[6] Клод Э. Шеннон впервые использовал слово «бит» в своей основополагающей статье 1948 года.Математическая теория коммуникации".[7][8][9] Он объяснил его происхождение Джон В. Тьюки, который написал меморандум Bell Labs 9 января 1947 года, в котором он сократил «двоичную информационную цифру» до просто «бит».[7] Ванневар Буш написал в 1936 году «биты информации», которые можно было хранить на перфокарты использовались в механических компьютерах того времени.[10] Первый программируемый компьютер, построенный Конрад Зузе, используется двоичная запись чисел.
Физическое представление
Бит может быть сохранен цифровым устройством или другой физической системой, которая существует в любом из двух возможных состояния. Это могут быть два стабильных состояния резкий поворот, две позиции электрический выключатель, два разных Напряжение или же Текущий уровни, разрешенные схема, два разных уровня Интенсивность света, два направления намагничивание или же поляризация, ориентация обратимой двухцепочечной ДНК, так далее.
Биты могут быть реализованы в нескольких формах. В большинстве современных вычислительных устройств бит обычно представлен электрические Напряжение или же Текущий импульс или электрическое состояние схема триггера.
Для устройств, использующих позитивная логика, цифровое значение 1 (или логическое значение «истина») представлено более положительным напряжением по сравнению с представлением 0. Конкретные напряжения различны для разных логических семейств, и допускаются вариации, чтобы учесть старение компонентов и помехоустойчивость. Например, в транзисторно-транзисторная логика (TTL) и совместимых схем, разрядные значения 0 и 1 на выходе устройства представлены не выше 0,4 В и не ниже 2,6 В соответственно; в то время как входы TTL предназначены для распознавания 0,8 В или ниже как 0 и 2,2 В или выше как 1.
Передача и обработка
Биты передаются по одному в последовательная передача, и на несколько бит в параллельная передача. А побитовая операция необязательно обрабатывает биты по одному. Скорость передачи данных обычно измеряется в десятичных единицах СИ, кратных единице. бит в секунду (бит / с), например кбит / с.
Место хранения
В самых ранних неэлектронных устройствах обработки информации, таких как ткацкий станок Жаккарда или ткацкий станок Бэббиджа Аналитическая машина, бит часто сохранялся как положение механического рычага или шестерни, или наличие или отсутствие отверстия в определенной точке бумажная карта или же Лента. Первые электрические устройства для дискретной логики (например, лифт и светофор схемы управления, телефонные переключатели, и компьютер Конрада Цузе) представляли биты как состояния электрические реле которые могут быть либо «открытыми», либо «закрытыми». Когда реле были заменены на вакуумные трубки, начиная с 1940-х годов, производители компьютеров экспериментировали с различными способами хранения, такими как импульсы давления, идущие вниз по линия задержки ртути, заряды хранятся на внутренней поверхности электронно-лучевая трубка, или непрозрачные пятна на стеклянные диски к фотолитографический техники.
В 1950-х и 1960-х годах эти методы были в значительной степени вытеснены магнитное хранилище такие устройства, как память на магнитном сердечнике, магнитные ленты, барабаны, и диски, где бит был представлен полярностью намагничивание определенной площади ферромагнитный пленкой, либо изменением полярности с одного направления на другое. Тот же принцип позже был использован в магнитная пузырьковая память разработаны в 1980-х годах и до сих пор встречаются в различных магнитная полоса такие предметы, как метро билеты и некоторые кредитные карты.
В современном полупроводниковая память, Такие как динамическая память с произвольным доступом, два значения бита могут быть представлены двумя уровнями электрический заряд хранится в конденсатор. В некоторых типах программируемые логические массивы и только для чтения памяти, бит может быть представлен наличием или отсутствием токопроводящей дорожки в определенной точке цепи. В оптические диски, бит кодируется как наличие или отсутствие микроскопической ямки на отражающей поверхности. В одномерном штрих-коды, биты кодируются как толщина чередующихся черных и белых линий.
Единица и символ
Бит не определен в Международная система единиц (SI). Тем не менее Международная электротехническая комиссия выпущенный стандарт IEC 60027, который указывает, что символ двоичной цифры должен быть кусочек, и это следует использовать во всех кратных, например кбит, за килобит.[11] Однако строчная буква b также широко используется и была рекомендована Стандарт IEEE 1541 (2002). В отличие от этого, заглавная буква B является стандартным и обычным символом байта.
Кратные биты | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
|
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
Несколько бит
Множественные биты могут быть выражены и представлены несколькими способами. Для удобства представления часто повторяющихся групп битов в информационных технологиях несколько единицы информации традиционно использовались. Самым распространенным является агрегат байт, придуманный Вернер Бухгольц в июне 1956 года, который исторически использовался для представления группы битов, используемых для кодирования одного персонаж текста (до UTF-8 взяло на себя многобайтовое кодирование) в компьютере[12][13][14][15][16] и по этой причине он использовался в качестве основного адресный элемент во многих компьютерные архитектуры. Тенденция в дизайне оборудования сошлась на наиболее распространенной реализации использования восьми бит на байт, как это широко используется сегодня. Однако из-за неоднозначности отношения к основному дизайну аппаратного обеспечения устройство октет был определен для явного обозначения последовательности из восьми бит.
Компьютеры обычно обрабатывают биты группами фиксированного размера, обычно называемыми "слова". Как и в случае с байтом, количество битов в слове также зависит от конструкции оборудования и обычно составляет от 8 до 80 бит или даже больше в некоторых специализированных компьютерах. В 21 веке у розничных персональных или серверных компьютеров есть слово размер 32 или 64 бит.
В Международная система единиц определяет серию десятичных префиксов для кратных стандартизованных единиц, которые обычно также используются с битом и байтом. Приставки килограмм (103) через йотта (1024) кратно 1000, а соответствующие единицы являются килобит (кбит) через йоттабит (Ыбит).
Информационная емкость и сжатие информации
Эта статья должна быть обновлено. Причина такова: в нем приводится факт о глобальном информационном содержании компьютеров с 2007 года.Октябрь 2018 г.) ( |
Когда информационная емкость системы хранения или канала связи представлена в биты или же бит в секунду, это часто относится к двоичным цифрам, что является компьютерное железо емкость для хранения двоичных данных (0 или 1, вверх или вниз, текущее или нет и т. д.).[17] Информационная емкость системы хранения - это только верхняя граница количества хранимой в ней информации. Если два возможных значения одного бита памяти не равновероятны, этот бит памяти содержит менее одного бита информации. В самом деле, если значение полностью предсказуемо, то считывание этого значения не дает никакой информации (нулевые энтропийные биты, потому что нет разрешения неопределенности и, следовательно, информация недоступна). Если компьютерный файл, использующий п бит памяти содержит только м < п бит информации, то эта информация в принципе может быть закодирована примерно м бит, по крайней мере, в среднем. Этот принцип лежит в основе Сжатие данных технологии. По аналогии, двоичные цифры оборудования относятся к объему доступного пространства для хранения (например, количество ведер, доступных для хранения вещей), и к информационному содержанию заполнения, которое имеет разные уровни детализации (мелкая или грубая, т. Е. сжатая или несжатая информация). Когда детализация более мелкая - когда информация более сжатая, - в том же ведре может содержаться больше.
Например, по оценкам, совокупный технологический потенциал мира по хранению информации обеспечивает 1300 эксабайты аппаратных цифр в 2007 году. Однако, когда это пространство хранения заполнено и соответствующее содержимое оптимально сжато, это составляет только 295 эксабайты информации.[18] При оптимальном сжатии результирующая несущая способность приближается к Информация о Шеннон или же информационная энтропия.[17]
Битовые вычисления
Определенный побитовый компьютер процессор инструкции (такие как набор бит) работают на уровне управления битами, а не данными, интерпретируемыми как совокупность битов.
В 80-е годы, когда растровый компьютерные дисплеи стали популярными, некоторые компьютеры предоставляли передача битового блока инструкции для установки или копирования битов, соответствующих заданной прямоугольной области на экране.
В большинстве компьютеров и языков программирования, когда упоминается бит в группе битов, такой как байт или слово, он обычно определяется числом от 0 и выше, соответствующим его положению в байте или слове. Однако 0 может относиться либо к наиболее или же младший бит в зависимости от контекста.
Другие информационные блоки
Похожий на крутящий момент и энергия по физике; теоретико-информационная информация и размер хранилища данных одинаковый размерность из меры измерения, но в целом нет смысла складывать, вычитать или иным образом комбинировать единицы математически.
Другие единицы информации, иногда используемые в теории информации, включают натуральная цифра также называется нац или же гнида и определяется как бревно2 е (≈ 1,443) бит, где е это основание натурального логарифма; и dit, запретить, или же Хартли, определяемый как журнал2 10 (≈ 3,322) бит.[6] Это значение, немного меньше 10/3, можно понять, потому что 103 = 1000 ≈ 1024 = 210: три десятичных цифры немного меньше информации, чем десять двоичных цифр, поэтому одна десятичная цифра немного меньше 10/3 двоичных цифр. И наоборот, один бит информации соответствует примерно пер 2 (≈ 0,693) нац, или лог10 2 (≈ 0,301) хартлея. Как и в случае обратного отношения, это значение, примерно 3/10, но немного больше, соответствует тому факту, что 210 = 1024 ~ 1000 = 103: десять двоичных цифр - это немного больше информации, чем три десятичных цифры, поэтому одна двоичная цифра немного больше, чем 3/10 десятичных цифр. Некоторые авторы также определяют бинит как произвольная информационная единица, эквивалентная некоторому фиксированному, но неуказанному количеству битов.[19]
Смотрите также
- Целое число (информатика)
- Примитивный тип данных
- Трит (Тройная цифра)
- Кубит (квантовый бит)
- Bitstream
- Энтропия (теория информации)
- Скорость передачи (бит в секунду)
- Двоичная система счисления
- Троичная система счисления
- Шеннон (единица)
Рекомендации
- ^ Маккензи, Чарльз Э. (1980). Наборы кодированных символов, история и развитие. Серия системного программирования (1-е изд.). Addison-Wesley Publishing Company, Inc. п. Икс. ISBN 978-0-201-14460-4. LCCN 77-90165. В архиве из оригинала от 18.11.2016. Получено 2016-05-22. [1]
- ^ Андерсон, Джон Б.; Джоннессон, Рольф (2006), Понимание передачи информации
- ^ Хайкин, Саймон (2006), Цифровые коммуникации
- ^ IEEE Std 260.1-2004
- ^ «Единицы: B». В архиве из оригинала от 04.05.2016.
- ^ а б Абрамсон, Норман (1963). Теория информации и кодирование. Макгроу-Хилл.
- ^ а б Шеннон, Клод Элвуд (Июль 1948 г.). «Математическая теория коммуникации» (PDF). Технический журнал Bell System. 27 (3): 379–423. Дои:10.1002 / j.1538-7305.1948.tb01338.x. HDL:11858 / 00-001M-0000-002C-4314-2. Архивировано из оригинал (PDF) на 1998-07-15.
Выбор логарифмического основания соответствует выбору единицы измерения информации. Если используется основание 2, полученные единицы могут называться двоичными цифрами или, короче, биты, слово предложено Дж. У. Тьюки.
- ^ Шеннон, Клод Элвуд (Октябрь 1948 г.). «Математическая теория коммуникации». Технический журнал Bell System. 27 (4): 623–666. Дои:10.1002 / j.1538-7305.1948.tb00917.x. HDL:11858 / 00-001M-0000-002C-4314-2.
- ^ Шеннон, Клод Элвуд; Уивер, Уоррен (1949). Математическая теория коммуникации (PDF). Университет Иллинойса Press. ISBN 0-252-72548-4. Архивировано из оригинал (PDF) на 1998-07-15.
- ^ Буш, Ванневар (1936). «Инструментальный анализ». Бюллетень Американского математического общества. 42 (10): 649–669. Дои:10.1090 / S0002-9904-1936-06390-1. В архиве из оригинала от 06.10.2014.
- ^ Национальный институт стандартов и технологий (2008 г.), Руководство по использованию международной системы единиц. Онлайн-версия. В архиве 3 июня 2016 г. Wayback Machine
- ^ Бемер, Роберт Уильям (2000-08-08). "Почему байт 8 бит? Или нет?". Виньетки по компьютерной истории. Архивировано из оригинал на 2017-04-03. Получено 2017-04-03.
[…] С IBMс ПРОТЯЖЕНИЕ компьютер в качестве фона, обрабатывая 64-символьные слова, которые делятся на группы по 8 (я разработал для него набор символов под руководством Dr. Вернер Бухгольц, человек, который придумал термин "байт"для 8-битной группировки). […] IBM 360 используются 8-битные символы, но не ASCII напрямую. Таким образом, «байт» Бухгольца прижился повсюду. Мне самому это имя не понравилось по многим причинам. […]
- ^ Бухгольц, Вернер (1956-06-11). «7. Матрица сдвига» (PDF). Система ссылок. IBM. С. 5–6. Протяжение Памятка № 39G. В архиве (PDF) из оригинала на 2017-04-04. Получено 2016-04-04.
[…] Наиболее важным с точки зрения редактирования будет возможность обрабатывать любые символы или цифры длиной от 1 до 6 бит […] Матрица сдвига, которая будет использоваться для преобразования 60-битного слово, поступающие из Памяти параллельно, в символы, или же "байты"как мы их назвали, чтобы отправить в Сумматор серийно. 60 бит сбрасываются в магнитопроводы на шести разных уровнях. Таким образом, если 1 выходит из позиции 9, она появляется во всех шести ядрах внизу. […] Сумматор может принимать все или только некоторые биты. […] Предположим, что желательно работать с 4-битным десятичные цифры, начиная справа. 0-диагональ пульсирует первой, отправляя шесть битов от 0 до 5, из которых сумматор принимает только первые четыре (0–3). Биты 4 и 5 игнорируются. Далее импульсная 4-я диагональ. Это отправляет биты с 4 по 9, из которых два последних снова игнорируются, и так далее. […] Так же просто использовать все шесть битов в буквенно-цифровой работать, или обрабатывать байты только одного бита для логического анализа, или смещать байты на любое количество бит. […]
- ^ Бухгольц, Вернер (Февраль 1977 г.). "Слово" Байт "достигает возраста ..." Журнал Byte. 2 (2): 144.
[…] Первая ссылка, найденная в файлах, содержалась во внутренней записке, написанной в июне 1956 г., в первые дни разработки Протяжение. А байт был описан как состоящий из любого количества параллельных битов от одного до шести. Таким образом, предполагалось, что длина байта соответствует случаю. Его первое использование было в контексте оборудования ввода-вывода 1950-х годов, которое обрабатывало шесть бит за раз. Возможность перехода на 8-битные байты рассматривалась в августе 1956 года и вскоре после этого была включена в конструкцию Stretch. Первое опубликованное упоминание этого термина произошло в 1959 году в статье «Обработка данных в битах и частях» автора. G A Blaauw, Ф. П. Брукс-младший и В. Бухгольц в Операции IRE на электронных компьютерах, Июнь 1959 г., стр. 121. Понятия, изложенные в этой статье, были развиты в главе 4 Планирование компьютерной системы (Project Stretch), под редакцией В. Бухгольца, Книжная компания McGraw-Hill (1962). Причина появления этого термина была объяснена на странице 40 следующим образом:
Байт обозначает группу битов, используемых для кодирования символа, или количество битов, передаваемых параллельно в блоки ввода-вывода и из них. Термин, отличный от персонаж используется здесь, потому что данный символ может быть представлен в разных приложениях более чем одним кодом, а разные коды могут использовать разное количество битов (т. е. разные размеры байтов). При передаче ввода-вывода группировка битов может быть совершенно произвольной и не иметь отношения к реальным символам. (Термин придуман из кусать, но переделан, чтобы избежать случайной мутации в кусочек.)
Система / 360 перенял многие концепции Stretch, включая базовые размеры байтов и слов, которые являются степенями 2. Однако для экономии размер байта был зафиксирован на максимальном уровне 8 бит, а адресация на уровне битов была заменена байтовой адресацией. […] - ^ Блаау, Геррит Энн; Брукс младший, Фредерик Филлипс; Бухгольц, Вернер (1962), «Глава 4: Естественные единицы данных» (PDF), в Бухгольц, Вернер (ред.), Планирование компьютерной системы - Project Stretch, McGraw-Hill Book Company, Inc. / The Maple Press Company, Йорк, Пенсильвания, стр. 39–40, LCCN 61-10466, заархивировано из оригинал (PDF) на 2017-04-03, получено 2017-04-03
- ^ Бемер, Роберт Уильям (1959). «Предложение по обобщенному карточному коду на 256 знаков». Коммуникации ACM. 2 (9): 19–23. Дои:10.1145/368424.368435. S2CID 36115735.
- ^ а б Информация в маленьких битах «Информация мелкими битами» - это книга, выпущенная в рамках некоммерческого информационно-пропагандистского проекта IEEE Information Theory Society. Книга знакомит детей от 8 лет и старше с Клода Шенноном и основными концепциями теории информации с использованием связанных с ними мультфильмов и заданий по решению проблем.
- ^ «Мировой технологический потенциал для хранения, передачи и вычисления информации» В архиве 2013-07-27 в Wayback Machine, особенно Поддержка онлайн-материалов В архиве 2011-05-31 на Wayback Machine, Мартин Гильберт и Присцила Лопес (2011), Наука, 332 (6025), 60-65; бесплатный доступ к статье здесь: martinhilbert.net/WorldInfoCapacity.html
- ^ Бхаттачарья, Амитабха (2005). Цифровая связь. Тата МакГроу-Хилл Образование. ISBN 978-0-07059117-2. В архиве из оригинала от 27.03.2017.
внешняя ссылка
Искать кусочек в Викисловаре, бесплатном словаре. |
- Битовый калькулятор - инструмент, обеспечивающий преобразование между битами, байтами, килобитами, килобайтами, мегабитами, мегабайтами, гигабитами, гигабитами
- BitXByteConverter - инструмент для вычисления размеров файлов, емкости хранилища и цифровой информации в различных единицах