Глава 7

НЕРВНАЯ СИСТЕМА С ТОЧКИ ЗРЕНИЯ ТЕОРИИ ИНФОРМАЦИИ

М. Циммерман

Между нервной системой и созданными человеком системами связи существует функциональное сходство–в частности, можно провести аналогию между нервным волокном и проводом, по которому передается информация. Именно поэтому ряд авторов подходил к изучению нервной системы с позиций инженеров–связистов, опираясь главным образом на теорию информации [6, 7, 8, 10]. Сочетание ее с теорией управления (гл. 15) образует научную дисциплину, называемую «кибернетикой» [1, 2, 3, 5, 9]. В этой главе сначала рассмотрены основы теории информации и способы измерения последней. Затем изложенные принципы иллюстрируются примерами из нейрофизиологии и психофизики; в частности, количественно описываются возможности и ограничения процесса передачи информации в живых системах.

7.1. Введение в теорию информации

Теория информации дает возможность измерить количество информации в неком сообщении и охарактеризовать системы ее передачи [5, 11, 14, 15]. Любая такая система состоит из следующих компонентов (рис. 7.1): источника информации, передатчика, канала передачи, приемника и пользователя. Нужно учесть еще источник помех, влияющий, в частности, на передачу по каналу связи. Эта основная концепция применима во всех случаях передачи информации – как в искусственных, так и в биологических системах. На рис. 7.1 под каждым изображенным компонентом системы приводятся соответствующие примеры из техники (вербальная передача по телексу или по телефону) и нейрофизиологии.

В нейрофизиологии характеристики информации включают, например, качество, интенсивность, местоположение, протяженность и длительность стимула, действующего на сенсорный орган. Они передаются по нервному волокну в виде последовательности потенциалов действия (нервных импульсов).

Информация: символы и кодирование. Сообщения составляются и передаются с помощью символов (букв, чисел, сигналов азбуки Морзе и т. д.), которые отбираются в определенных сочетаниях источником информации (рис. 7.1). Сравнительно немногих букв достаточно для получения множества слов и предложений, с помощью которых мы обмениваемся вербальной (словесной) информацией. Как правило, символы, поступающие от источника информации, кодируются в передатчике, т.е. преобразуются в другие, более удобные для передачи по используемому каналу связи (например, в модулированные по частоте электромагнитные волны в радиовещании, в последовательности потенциалов действия в нервной системе). Кодирование заключается в установлении однозначного соответствия между символами двух наборов. В качестве примера можно сравнить буквы алфавита и азбуки Морзе (рис. 7.2) или преобразование давления на кожу в частоту разрядов механорецептора (см. рис. 7.5, рецептор МА). В приемнике передаваемая информация декодируется и поступает к пользователю в своем первоначальном виде. Одна из задач теории информации–разработка кодов, оптимальных для передачи данных по конкретному каналу и сводящих к минимуму информационные потери, вызываемые помехами.

Измерение количества информации

В теории информации сам этот термин применяется именно к измеримой, описываемой математически стороне сообщения [6, 7, 8]. Например, когда вы бросаете игральную кость, выпадает одно из шести равновероятных чисел. Вероятность выпадения каждого из них составляет: р = 1/6. Таким образом, при каждом броске игрок устраняет одно и то же количество неопределенности, т. е. у каждого броска одинаковое измеримое информационное содержание. Обобщая, можно сказать, что информация–это выраженное количественно уменьшение неопределенности в знаниях о событии.

Следовательно, чем необычнее некоторое событие, т. е. чем меньше его вероятность р, тем больше уменьшается неопределенность, когда оно происходит. Поэтому информационное содержание (I) удобно выражать как величину, обратную этой вероятности: I = 1/р. Имеет смысл также условиться, что, когда событие точно произойдет (т.е. его вероятность р = 1), его информационное содержание 1=0. Соответственно, измеримое информационное содержание I сообщения определяется следующим образом:

 

I=log2 1/p= ld 1/p  (1)

 

В этой формуле Id означает двоичный логарифм, т. е. логарифм по основанию 2 (Id = log2).

 

 

 

Рис. 7.1. Основные понятия теории информации (вверху) с примерами элементов информационной цепи в технических и биологических системах

Рис. 7.2. Фрагмент азбуки Морзе как пример кода. Буквы алфавита представлены здесь сочетаниями коротких (точки) и длинных (тире) символов. Их можно передавать разными техническими способами–световыми, звуковыми, электрическими импульсами разной длительности. Справа: запись азбукой Морзе сигнала бедствия на море (SOS)

 

Вычислим теперь информационное содержание каждого броска игральной кости: I = Id 1/1/6) = Id 6 = 2,58 бит. Что такое «бит», мы рассмотрим ниже. Поскольку у карманных калькуляторов обычно нет программы для вычисления двоичного логарифма, можно использовать следующую формулу перевода:

Id n = log10n/log102 = 3,321og10n.

Вообще говоря, вероятность появления каждого из множества n возможных символов (или состояний источника информации) составляет р = 1/n. Следовательно, уравнение (1) можно преобразовать к виду

I=ld n.                  (2)

Иными словами, информационное содержание 1–это двоичный логарифм числа n всех символов или возможных состояний источника информации. Ниже мы применим такое соотношение к нейрофизиологии.

Символы с неодинаковой вероятностью появления. При выводе уравнения (2) упрощенно допускалось, что все n состояний источника информации равновероятны: р = 1/n. Это верно, например, при бросании игральной кости. Однако обычно отдельные символы или состояния источника информации не равновероятны. Например, в текстах на английском языке буква «е» встречается чаще прочих, а буква «z»–сравнительно редко. Хотя такая неодинаковая вероятность сигналов–наиболее распространенный случай, мы не будем его рассматривать для простоты изложения.

В приведенном выше количественном определении информации никак не оговаривается ее значимость для пользователя. Например, при игре в кости разные выпадающие числа воспринимаются игроком отнюдь не одинаково: все зависит от характера игры, ее правил, предыдущего результата, результатов других игроков и т. п. Эти аспекты, называемые семантическими, теорией информации игнорируются.

Двоичные и недвоичные символы; бит. В простейшем случае информацию можно передавать с помощью всего двух символов, в так называемой двоичной системе (например, нулями и единицами). При этом источник информации сигнализирует о выборе между двумя альтернативами (например, «да»/«нет»). Двоичные системы особенно удобны с точки зрения технической реализации (свет/темнота, включено/выключено, сильное/слабое магнитное поле и т.д.). В этом одна из причин выбора в качестве элементарной единицы информации информационного содержания двоичного символа: I = Id2= 1. Количество информации, передаваемое одним двоичным символом, называется один бит.

Бит–это очень мало информации. Если в такой системе требуется передать достаточно длинные сообщения, слова нужно составлять, объединяя по несколько символов. Длина слова (число в нем двоичных символов) непосредственно выражает количество информации в битах. Число слов, которые можно образовать из двух двоичных символов, равно 22 = 4: 00, 01, 10, 11. Из трех символов составляются 23 = 8 слов–комбинаций: 000, 001,010, 01l, 100, 101, 110, 111. Если в слове т двоичных символов, получается п = 2m таких сочетаний. Другими словами, в этом случае можно послать n = 2m различных сигналов с информационным содержанием в m бит у каждого.

Предложенное выше определение информационного содержания не зависит от природы используемых в качестве носителя символов: любой их набор можно представить в виде двоичного кода. Для однозначного соответствия между п различных символов и обозначающими их двоичными словами длина последних должна составлять в среднем m =ld n двоичных символов. Попробуйте придумать примеры, иллюстрирующие это положение; предложите, в частности, двоичный код для букв от А до 3 или чисел от 1 до 16.

Когда произвольный символ заменен двоичным словом, можно сказать, что их информационное содержание (в битах) одинаково, поэтому в среднем у любого символа из п оно определяется формулой I = Id n. Перед нами уравнение (2), выведенное выше из определения информационного содержания.

Разбирая основные понятия теории информации, мы значительно упростили вопрос, в частности, допустив равную вероятность появления любого символа из их множества. Более подробное и строгое изложение теории информации можно найти в специальной литературе.

Избыточность. При кодировании, передаче и декодировании могут возникать помехи (рис. 7.1). Например, наводки от электросети иногда проявляются при записи на магнитную ленту в виде гудения частотой 50 или 60 Гц; телефонные сигналы ослабляются из–за повреждения изоляции кабеля, а телевизионное изображение искажается, если сигнал от удаленного передатчика слишком слаб. В таких случаях некоторое количество информации теряется. В технике способы защиты информации от помех основаны на концепции избыточности. В качестве иллюстрации этого понятия рассмотрим пример из области лингвистики. Попытайтесь расшифровать следующее неполное предложение (пропущенные буквы в нем заменены точками):

И..орм.ц..н...   c..е.жа..е   с.об.е.и.   из.е.и.о

Смысл понятен, хотя не хватает 49% букв. Иными словами, в тексте больше символов, чем необходимо для передачи содержания. Это и называют избыточностью; она измеряется в битах.

Исходя из частоты появления в словах каждой из 26 букв английского алфавита, можно показать, что среднее информационное содержание буквы не превышает 1,5 бит. Теоретически, если не учитывать разной вероятности появления букв, оно составило бы Id 26 = 4,7 бит, поэтому в данном случае средняя избыточность равна 4,7 бит 1,5 бит = 3,2 бит на букву.

На первый взгляд такое количество символов кажется расточительным, однако преимущества его становятся очевидными, когда на канал передачи воздействуют помехи, например при плохой телефонной связи, глушении радиоприема или в случае неразборчивого почерка: избыточность языка обеспечит понимание смысла текста даже при частичной идентификации символов. Теория информации количественно объясняет следующий факт: чем избыточнее кодирование, тем сильнее защищено от помех передаваемое сообщение. К простым способам введения избыточности относятся передача сигналов по множеству параллельных каналов, передача каждого символа несколько раз подряд, добавление контрольных «битов четности» к сигналу, записанному в двоичном коде. В нервной системе также используется принцип избыточности.

 

7.2. Теория информации в сенсорной физиологии

Применим теперь рассмотренную выше концепцию (рис. 7.1) к передаче информации в нервной системе [5, 11, 14, 15]. Возьмем для примера рецептор с его афферентным волокном. В этом случае информация кодируется последовательностью нервных импульсов и в таком виде передается. Ее источник (рис. 7.1)–внешние стимулы, передатчики–рецепторные клетки сенсорного органа, канал передачи–нервные волокна, приемник–группа центральных нейронов, а пользователь – ЦНС в целом.

Единицы информации здесь – количественные параметры стимулов (например, давление на кожу, местоположение раздражителя на периферической сенсорной поверхности, длина световых или звуковых волн). Во многих рецепторах интенсивность стимула кодируется средней частотой импульсации нейрона. Такой способ аналогичен частотной модуляции, используемой в системах связи, и известен в любой сенсорной модальности. Мышечные веретена, кожные рецепторы давления, хеморецепторы языка и фоторецепторы сетчатки все они сигнализируют об интенсивности соответствующего им стимула средней частотой импульсации своих нервных волокон. Частота нейронной импульсации –универсальный носитель информации.

Поскольку афферентные волокна сенсорных рецепторов обычно соединяются со специфичными ассоциативными нейронными системами в ЦНС, информация, передаваемая последовательностью импульсов, однозначно и адекватно интерпретируется. Например, афференты Iа оканчиваются на гомонимных мотонейронах, афференты механорецепторов проецируются в постцентральную извилину, где образуют «карту» поверхности тела, а терморецепторы передают сигналы в центр терморегуляции, расположенный в гипоталамусе.

Передача информации идеальным рецептором.

Каким образом импульсация рецептора

 

Рис. 7.3. Кодирование интенсивности стимула (S) нервными импульсами. Когда на рецептор действует адекватный стимул определенной длительности, в афферентном волокне генерируется целое число (N) потенциалов действия (ось ординат). Поэтому график зависимости реакции от интенсивности стимула (ось абсцисс) представляет собой ступенчатую линию

 

приобретает различные состояния, информационное содержание которых можно измерить? Рассмотрим кодирование интенсивности стимула. Если бы рецептор реагировал на стимул только двумя способами: генерируя либо один импульс, либо ни одного, он мог бы информировать только о двух уровнях интенсивности раздражения. Отсутствие потенциала действия означало бы, что она ниже порогового уровня, его наличие–надпороговую величину. Теоретически, если стимул может вызвать в афферентном волокне максимум N импульсов, то соответствующий рецептор способен сообщить счетчику импульсов в ЦНС о (N + 1) разных уровнях интенсивности.

Это положение иллюстрируется рис. 7.3. Поскольку число импульсов (N) в афферентном волокне должно быть целым, график зависимости N от интенсивности стимуляции (S) ступенчатый. В случае идеального рецептора, реагирующего на постоянно действующий стимул импульсацией неизменной частоты, общее число импульсов (N) равно произведению их частоты (f) на время наблюдения (t): N = ft. Тогда максимальное количество уровней интенсивности, кодируемых разрядами рецептора, составит

N+1 =fmt+ 1,                  (3)

где fm–максимальная частота его импульсации. Если рецептор обладает спонтанной активностью (т.е. генерирует потенциалы действия в отсутствие внешнего стимула) с частотой fo, то в уравнении (3) и всех последующих формулах величину fm, нужно заменить на fmfo.

Набор символов для кодирования определяется здесь числом различных частот импульсации в

 

 

Рис. 7.4. Зависимость количества информации (I, ось ординат) идеального рецептора от времени наблюдения (t, ось абсцисс). Параметр, отличающий приведенные кривые друг от друга, максимальная частота импульсации рецептора (fm), рассчитанная по уравнению (4). Область, закрашенная красным, соответствует количеству информации, определенному экспериментально для механорецепторов кожи (на основе собственных наблюдений автора за МА–рецепторами кошки и по данным [14, 15])

афферентном волокне. Значит, в примере на рис. 7.3 информационное содержание равно I = ld(N + 1) =  Id 10 = 3,3 бит. Вообще говоря, у рецептора с зависимостью импульсации от интенсивности по fm можно оценить информационное содержание сообщений об интенсивности стимула [11]:

I= ld(fmt+ 1).                  (4)

Обратимся к рис. 7.4. Очевидно, информационное содержание (I) увеличивается с ростом как fm, так и t;

fm – неизменная характеристика рецептора; удлиняя период наблюдения или измерения t, можно увеличить информационное содержание в зависимости от интенсивности  продолжительно   действующего постоянного стимула. Однако практически период, затрачиваемый на оценку афферентной импульсации, видимо, ограничен «постоянной времени» ЦНС. Исходя из результатов, полученных при исследовании реальных рецепторов [15] и в психофизических экспериментах [13], можно оценить предел, до которого при увеличении времени наблюдения t возрастает информационное содержание сообщения об интенсивности стимула (см. ниже).

Передача информации в реальном рецепторе. До сих пор рассматривался идеальный рецептор,

 

 

Рис. 7.5. Шум при кодировании в реальном рецепторе. А. Запись импульсации МА–рецептора в подушечке кошачьей лапы в ответ на стимулы длительностью 1 с (их интенсивность указана в ньютонах). Б. Зависимость частоты импульсации (ось ординат), записанной несколько раз, от интенсивности стимула (ось абсцисс). Ступенчатая линия, проведенная через случайно разбросанные экспериментальные точки, приближенно показывает уровни интенсивности раздражения, различимые по импульсации рецептора

 

реагирующий на стимул постоянной интенсивности импульсацией с постоянной частотой. Реальные биологические рецепторы ведут себя иначе.

Экспериментально показано, что при неоднократном раздражении с одной и той же интенсивностью частота импульсации рецептора неодинакова. На рис. 7.5 носителем информации об «интенсивности стимула» служит частота разрядов МА–рецептора. Разброс точек на графике говорит о ее стохастических (случайных) флуктуациях, причина которых непонятна. В технике такие флуктуации обычно называют шумом. Он всегда снижает способность канала связи передавать информацию, выступая в роли источника помех (рис. 7.1)

Чтобы количественно оценить потери информации из–за шума в процессе кодирования, рассмотрим измеренные в экспериментах соотношения, представленные на рис. 7.5, Б. Каждая точка на графике соответствует одному замеру (как на рис. 7.5, А), однако при времени наблюдения 5с. Число различных состояний рецептора можно оценить, проведя через полученные точки ступенчатую линию; всего таких ступеней восемь (первая соответствует нулевому количеству импульсов), так что количество передаваемой информации об интенсивности составляет Id 8 = 3 бит на стимул.

Основания для такого графического способа определения информационного содержания следующие. Две разные интенсивности стимула надежно различимы только тогда, когда число импульсов, связанное с одной из них (ось ординат на рис. 7.5, Б), не такое, как при другой. «Наихудший случай», соответствующий минимальной разрешающей способности,–ступенчатая линия с максимальной высотой ступеней, построенная по множеству экспериментальных точек.

Если бы рассматриваемый рецептор работал как идеальный частотный модулятор (идеальный рецептор без шума), то в условиях эксперимента, иллюстрируемого рис. 7.5, Б, можно было бы различить примерно 300 уровней интенсивности стимула с информационным содержанием 8,2 бит/стимул (уравнение 4). Однако из–за шума теряется 8,2 бит–3 бит = 5,2 бит.

Наибольшие количества информации, приходящиеся на стимул в случае рецепторов, известны для мышечных веретен: первичные (Iа) окончания передают до 4,8 бит на стимул длительностью 1 с, а вторичные (II)–6,3 бит.

Отклонения от свойств идеального рецептора проявляются также тогда, когда варьирует время наблюдения t По мере его увеличения информационное содержание идеального рецептора непрерывно увеличивается, что иллюстрируют кривые на рис. 7.4, соответствующие уравнению (4). Однако у реального рецептора оно не может расти бесконечно  [15].  Например, в экспериментах у кожных МА–рецепторов оно достигает максимума (3 бит/стимул) примерно за 1 с. Таким образом, хотя многие рецепторы способны посылать импульсы с частотой в несколько сотен Гц, они, очевидно, работают не лучше идеального рецептора с максимальной частотой разрядов порядка 10 Гц.

Избыточность в нервной системе. Один из эффективных способов использования избыточности для защиты от шума – параллельная передача информации по двум или более каналам. Такая возможность реализуется в нервной системе. На периферии плотность распределения рецепторов обычно столь высока, что даже точечные стимулы возбуждают несколько нервных волокон. Количество информации, передаваемой совокупной импульсацией всех возбужденных волокон больше, чем в случае одиночного волокна, поскольку относительный уровень шума, т. е. относительные стохастические флуктуации частоты разрядов, ниже при увеличении последней [12, 13]. В целом, избыточность за счет передачи информации по параллельным волокнам компенсирует помехи (шум) кодирования в рецепторе.

Фактическая эффективность такой параллельной передачи информации определяется характером ее центральной обработки. Например, можно предположить, что оценка интенсивности стимула основана на простой суммации активности всех возбужденных им афферентных волокон. Тогда получаемая информация рассчитывается по изменчивости суммарной импульсации способом, иллюстрируемым рис. 1.5, Б. В процессе суммации общее число импульсов растет приблизительно линейно с увеличением числа афферентных волокон, хотя параллельно происходит и небольшое усиление изменчивости импульсации (шума), т.е. расширение полосы неопределенности, занимаемой точками на рис. 7.5, Б. Тем не менее через них можно провести линию с большим числом ступеней. Значит, информационное содержание суммарной импульсации больше, чем у разрядов одиночного афферентного волокна.

Избыточность обеспечивается и параллельной передачей в центральной нервной системе. Однако здесь появляются новые факторы. Из–за конвергенции и дивергенции в синаптических «распределительных станциях» параллельные каналы могут оказаться соединенными друг с другом. Теория информации говорит, что по сравнению с передачей по простым параллельным каналам такая организация связи дает дополнительную избыточность.

Однако в этих условиях происходила бы широкомасштабная диффузия возбуждения в ЦНС (см. гл. 8), а следовательно, потеря информации относительно места действия стимула. Для противодействия такому снижению пространственной разрешающей способности при центральном картировании раздражителя, вероятно, используется латеральное торможение (см. гл. 8, рис. 8.7). В более общем смысле можно рассматривать его как механизм адаптации центральной обработки информации к различным задачам. В зависимости от степени латерального торможения карта периферии, формирующаяся в ЦНС, будет сохранять больше информации либо об интенсивности стимула, либо о его местоположении.

 

7.3. Измерение информации в психологии

Количественные оценки информации используются и в экспериментальной психологии, особенно в психофизике (см. гл. 8) [4, 12, 13]. Здесь мы приведем несколько примеров такого применения теории информации, обратив особое внимание на связь между нейрофизиологическими и психофизическими данными. В психофизических экспериментах испытуемый субъективно оценивает интенсивность стимула (например, направленного в глаза света или давления на кожу) и выражает ее условно–в баллах и т.п. (см. гл. 8 и 10, рис. 8.14). Когда такие оценки даются многократно и откладываются на графике в зависимости от объективно измеренной интенсивности стимуляции, получается линия, подобная приведенной на рис. 7.5, Б, с ординатами, соответствующими не импульсации рецептора, а субъективным ощущениям. По полученным точкам можно определить информационное содержание, хотя в психофизическом эксперименте речь идет об информации на уровне сознательного восприятия. Например, когда испытуемого просили оценить интенсивность давления на кожу, информационное содержание составило примерно 3 бит/стимул. Эта величина почти совпадает с полученной для одиночного рецептора давления (см. рис. 7.5, Б).

Если на участок кожи кисти площадью 1 см2 оказывается механическое давление, возбуждается примерно 20 афферентных волокон, отходящих от медленно адаптирующихся (МА–) рецепторов. При такой стимуляции в психофизическом эксперименте можно сознательно выделить примерно 3 бит информации относительно интенсивности раздражения. Очевидно, что в рамках субъективного восприятия оценивается лишь малая часть информации, передаваемой афферентными волокнами. В данном конкретном случае остальная (неиспользованная) нейронная информация должна считаться избыточной.

При интерпретации подобных результатов следует учитывать, что общая импульсация возбужденных волокон от МА–рецепторов несет информацию и о размерах, форме, местоположении и характере поверхности раздражителя, давящего на кожу. Все эти показатели могут оцениваться сознательно или бессознательно и измеряться в психофизических экспериментах. Изучение способности испытуемого различать местоположение тактильного стимула на поверхности тела привело к выделению более 200 разных участков поверхности кожи. Следовательно, психофизическая информация о месте раздражения равна примерно 8 бит (Id 256) на стимул. В других экспериментах, последовательно предъявляя два стимула, определяют наименьшую разницу в интенсивности, воспринимаемую испытуемым. В подобных психофизических опытах с холодовой стимуляцией кожи обнаружен порог различения температур, составляющий   0,05 °С   [13].   Сопоставление психофизических и нейрофизиологических данных о холодовых стимулах показало, что для их субъективного различия нужна информация, содержащаяся в суммарной импульсации всех афферентных волокон от холодовых рецепторов (см. рис. 9.13) раздражаемого участка кожи. В данном случае восприятие требует оценки всей поступающей нейронной информации.

Нейронный и психофизический потоки информации. Рассмотрим теперь, как общая сенсорно–нейрофизиологическая информация соотносится с психофизической. Эффективность наших систем передачи информации характеризуется максимальным потоком информации (бит/с), или, иначе, пропускной способностью канала. Например, пропускную способность механорецептора (см. рис. 7.5) определяют экспериментально, постепенно повышая частоту повторения стимулов при одновременном сокращении их длительности. Для длительности стимулов менее 1 с информационное содержание каждого из них уменьшается (см. рис. 7.4), однако, поскольку в единицу времени их число возрастает, в целом поток информации увеличивается. В табл. 7.1 представлены пропускные способности всех рецепторов в различных сенсорных органах, рассчитанные по общему числу афферентных волокон и пропускной способности каждого из них. Здесь же приведены соответствующие данные по психофизической пропускной способности, т.е. по максимальному потоку информации на уровне сознательного восприятия. В последнем случае оценки для зрительной системы основаны на чтении текста, а для слуховой–на восприятии устной речи.

Как мы знаем из собственного опыта, все сознательное внимание можно направить в каждый

 

Таблица 7.1. Сравнение нейронного потока информации и потока информации при сознательном восприятии для пяти сенсорных систем. Слева приводятся оценочные количества их рецепторов и афферентов, а также максимальные суммарные потоки информации в них (пропускные способности канала передачи); справа –соответствующие значения максимального потока информации на уровне сознания, т. е. пропускная способность, вычисленная по данным психофизических экспериментов; очень приблизительные оценки сопровождаются знаком (?)

1

2

3

4

5

6

Глаза

2–108

2–106

107

 

Обработка

в ЦНС

 

 

 

40

Уши

3–104

2–104

105

30

Кожа

107

106

106

5

Вкус

3–107

103

103

1 (?)

Запах

7–107

105

105

1 (?)

1–Сенсорная система

2–Число рецепторов

3–Число афферентов

4– Суммарная пропускная способность , бит/с

5–ЦНС

6–пропускная способность психофизиологического канала  , бит/с

 

данный момент только на один сенсорный орган. Поэтому мгновенный осознаваемый поток информации никогда не превышает одной из указанных справа в таблице величин. Следовательно, максимальное его значение при сознательном сенсорном восприятии равно 40 бит/с, что на много порядков меньше, чем на уровне рецепторов (табл. 7.1, слева). Значит, то, что мы воспринимаем в любой момент времени,–лишь крошечная доля проходящего на наши сенсорные органы потока информации об окружающем мире.

 

7.4. Литература

Учебники и руководства

1. Erismann Т.Н. Grundprobleme der Kybernetik. Berlin–Heidelberg–New York, Springer, 1972.

2. Flechtner H.–J. Grundbegriffe der Kybernetik. Eine Einfuhrung, Stuttgart, Wissenschaftl. Verl. Ges, 1966.

3. Frank H. Kybernetik, Briicke zwischen den Wissenschaften. Frankfurt, Umschau–Verlag, 1970.

4. Garner V.R. Uncertainty and Structure as Psychological Concepts. New York, John Wiley, 1962.

5. Keidel W. D. Einfuhrung in die biologische Kybernetik. Darmstadt. Wissenschaftliche Buchgesellschaft, 1985.

6. Sampson J. R. Adaptive Information Processing, An Introductory Survey. Heidelberg, Springer, 1976.

7. Pierce J. R. An Introduction to Information Theory. Symbols, Signals and Noise. Mineola, N. Y., Dover Pubns. Inc., 1980.

8. Reza F. M. An Introduction to Information Theory, New York, McGraw–Hill, 1961.

9. Shannon C.E., Weaver W. The Mathematical Theory of Communication. Urbana. The University of Illinois Press, 1949.

10. Wiener N. Cybernetics. Paris, New York, Freymann, 1948.

Оригинальные статьи и обзоры

11. Grosser O.–J. Informationstheorie und die Signalverar–beitung in den Sinnesorganen und im Nervensystem. Naturwissenschaften, 59, 436 (1972).

12. Dorian–Smith I. The sence of touch: performance and peripheral neural processes. In: Handbook of Physiology, Sect. 1. The Nervous System (Eds. Brookhart J.D., Mountcastle V.B.), p. 739. Baltimore, William & Wilkins, 1984.

13. Dorian–Smith I. Thermal sensibility. In: Handbook of Physiology, Sect. 1: The Nervous System (Eds. Brookhart J.D., Mountcastle V. В.), p. 879, Baltimore, Wiiliam & Wilkins, 1984.

14. Walloe L. On the transmission of information through sensory neurons, Biophys. J., 10, 745 (1970).

15. Werner G., Montcastle V. В. Neural activity in mechanoreceptive cutaneous afferents: stimulus response relations, Weber functions and information transmission. J. J. Neurophysiol, 28, 359 (1965).