Кількість інформації в теорії інформації – це кількість інформації в одному випадковому об'єкті щодо іншого.
Тому, щоб обчислити обсяг інформації всього повідомлення, потрібно кількість символів, наявних у повідомленні, помножити на інформаційну вагу одного символу. Математично цей твір записується так: I = К · i. Наприклад: повідомлення, записане літерами 32-символьного алфавіту, містить 180 символів.
Кількість інформації (i), необхідної для визначення конкретного елемента, є логарифм на підставі 2 загального кількості елементів (N).
Піонером у галузі інформаційної теорії був Ральф Хартлі. Він увів поняття "інформації" (ентропії) як випадкової змінної і був першим, хто спробував визначити "захід інформації".