Интересный блог Виталия Пискарева

Что такое Гигабайт?

Гигабайт — это термин, который указывает на определенное значение объема данных в отношении емкости хранилища или содержимого. Он относится к количеству чего-то, как правило, данные какого-то, часто хранятся в цифровом виде.

Гигабайт обычно относится к 1 миллиард байт. Гигабайт может потенциально путать с гибибайт, что тоже для хранения определенной суммы, а основанная на двоичном или выбор две системы.

Самый простой способ понять термин «gigabyte» — разделить его на две базовые части: «giga» и «byte». Байт — это часть данных, и обычно считается наименьшим количеством данных, используемых для представления одного символа в коде компьютера.

Другими словами, байты — это отдельные строительные блоки компьютерного кода. Каждый байт состоит из нескольких битов, обычно из восьми, и каждый бит — это часть данных, которая обычно имеет одно из двух возможных значений: обычно представляет собой 1 или 0.

Биты отдельных частей двоичный код они сгруппированы вместе, по восемь за раз, чтобы создать один байт, который затем фактически составляет данные в большем смысле. Поэтому компьютерные программы состоят из байтов, и поэтому размер программы представлен в виде байтов.

Так же, как стена, сделанная с использованием 100 кирпичей, будет больше, чем стена, сделанная из 10 из тех же кирпичей, программа 100 байтов больше, чем один из 10 байтов. Вместо того, чтобы выражать размеры больших программ в тысячах или миллионах, и теперь миллиарды и триллионы байтов, префиксы используются для указания порядков величины.

Эти префиксы следуют установленным обозначениям международной системы единиц измерения, аналогично тому, что используется в метрических измерениях. Поэтому 1000 байт называется килобайт, 1 миллион байт в мегабайте, 1 миллиард байт гигабайт, а 1 триллион байт — это терабайт.

Эти префиксы указывают на порядок, на который увеличиваются байты, и несколько соответствуют двоичным обозначениям, использующим схожую терминологию. Именно за счет этого типа нотации, что гигабайт может иногда путать с гибибайт, который похож, но разные по размеру.

А гибибайт — это размер, используемый чаще всего для обозначения хранения или переработки для памяти, такой как оперативное запоминающее устройство (ОЗУ).

Этот размер основан на двоичной или базовой системе двух, в которой порядки величины состоят из экспоненциального увеличения на 10 до основания двух. Другими словами, 210 байт — это kibibyte, 220 байт — это мебибайт, и 330 байт — это гибибайт.

В то время как это близко к гигабайту, это не точно такой же: гибибайт — это 1 073 741 824 байт; и привело к путанице с учетом фактического хранения размеры на жестких дисках и аналогичных устройств памяти.