Теория информации

Теория информации - это раздел математики, который пересекается с коммуникационной инженерией, биологией, медициной, социологией и психологией. Теория посвящена открытию и исследованию математических законов, которые управляют поведением данных при их передаче, хранении или извлечении. 

В 1948 году Клод Шеннон , математик из Bell Labs, опубликовал статью под названием «Математическая теория коммуникации» . Статья сразу же привлекла внимание математиков и ученых всего мира. В результате реакции на эту статью возникло несколько дисциплин, включая теорию информации, теорию кодирования и теорию энтропии абстрактных динамических систем. 

 Когда данные передаются, сохраняются или извлекаются, существует ряд переменных, таких как полоса пропускания , шум , скорость передачи данных, емкость памяти, количество каналов, задержка распространения, отношение сигнал / шум , точность (или частота ошибок), внятность и надежность. В аудиосистемах дополнительные переменные включают точность воспроизведения и динамический диапазон. В видеосистемах разрешение изображения , контраст, глубина цвета, реалистичность цвета, искажение и количество кадров в секунду являются важными переменными. Одним из наиболее важных приложений теории информации является определение оптимальной конструкции системы для данного практического сценария. 

Теория информации - это развивающаяся дисциплина, которая продолжает вызывать интерес у экспериментаторов и теоретиков.

 Сообщение от: Маргарет Роуз WhatIs.com

Комментарии

Популярные сообщения из этого блога

Светодиодный индикатор уровня сигнала

Колебание жидкости в трубке.

Распознавание речи и распознавание голоса: в чем разница?