Информация и самоорганизация
Любая открытая информационная система эволюционирует так, что начиная с состояния наибольшей энтропии (неопределённости) стремится спиралеобразно к актуализации новых связей и отношений, к организованности и порядку в системе в процессе взаимоотношений со средой и перестройки структуры с целью уменьшения энтропии.
Пример. На телевизионной игре “Что? Где? Когда?” обсуждение вопроса часто начинается хаотично, спонтанно, независимо и в конце обсуждения может организоваться в единодушное принятие правильного решения.
Самоорганизация может наблюдаться и в неживых системах.
Пример. История развития ЭВМ - пример самоорганизации: от 1-го поколения ЭВМ (40-50-ые годы 19 века) с электронными лампами и быстродействием порядка 104 операций в сек. до 1-го поколения оптических ВМ (конец 90-ых годов) с голографической памятью, с логикой на потоках фотонов, нейроподобных архитектурах и быстродействием порядка 1012 операций в сек.
Пример. Человеческое общество развивается спиралевидно, циклически: циклически повторяются катастрофы, законы, неурожаи и т.п.
Любая деятельность вопреки эволюционным процессам в системе, вопреки принципам самоорганизации - вредна и противосистемна.
Пример. Любые экономические решения противоречащие основному регулятору рынка, основному механизму её организации - соотношению “спрос-предложение” приводят к вредным последствиям для системы, её самоорганизации, например, выпуск товаров в объёме, превышающем спрос на рынке может привести к снижению спроса.
Сформулируем основные аксиомы теории информационных динамических процессов (информационной синергетики).
Аксиома 1 Развитие (эволюция) системы определяется некоторой целью и информационными ресурсами системы, её информационной открытостью.
Аксиома 2 При стремлении к цели система воспринимает входную информацию, которая используется и для изменения внутренней структуры самой системы, внутрисистемной информации.
Аксиома 3 Изменение внутрисистемной информации происходит таким образом, чтобы увеличивалась негэнтропия системы, уменьшалась энтропия (мера беспорядка) в системе.
Аксиома 4 Любое изменение внутренней структуры системы или внутрисистемной информации оказывает воздействие на выходную информацию системы (т.е. на окружающую среду системы); внутренняя энтропия изменяет внешнюю энтропию системы.
Пример. Сформулируем, опираясь на эти аксиомы основные законы информационных динамических процессов в социально-экономических системах. Социально-экономические процессы при этом труднее поддаются математизации, информатизации из-за сложности, плохой формализуемости и плохой структурируемости этих систем (процессов).
Закон 1 Развитие любой социально - экономической системы определяется лишь целью и социально - экономико - информационными ресурсами системы.
Закон 2 При стремлении к цели любая социально-экономическая система воспринимает входную информацию, используемую и для изменения внутренней структуры системы, изменения внутрисистемной информации.
Закон 3 Изменение внутрисистемной информации происходит таким образом, чтобы уменьшалась энтропия (мера беспорядка) в социально- экономической системе.
Закон 4 Любое изменение внутренней структуры социально- экономической системы или внутрисистемной информации оказывает воздействие на выходную информацию, на окружающую среду, а система при этом ведёт себя так, чтобы уменьшить негативное влияние этих воздействий.
Важное значение при исследовании управляемости системы, её управляющих параметров, развития системы во времени, в пространстве, по структуре имеют синергетические принципы сформулированные И. Пригожиным и его последователями, в частности следующие:
- принцип эволюции системы, необратимости процессов её развития;
- принцип возможного решающего воздействия (при определенном стечении обстоятельств) малых изменений поведения системы на её эволюцию;
- принцип множественности (или многовариантности) путей развития системы и возможности выбора оптимальных из них;
- принцип невмешательства в процессы самоуправляемого развития и непредсказуемости эволюционного поведения системы и, в то же время, - учёт возможности организовать управляющие воздействий на ресурсы и процессы в системе;
- принцип учёта стохастичности и неопределённости процессов (поведения систем);
- принцип взаимовоздействия усложнения организации, устойчивости и темпов развития систем;
- принцип учёта факторов стабильности и нестабильности системы (возникновения устойчивости из неустойчивого поведения), порядка и хаоса в системе (возникновения порядка из хаоса), определенности и неопределенности;
- принцип взаимовлияния устойчивости среды отдельной подсистемы или элемента (микросреды) и процессов во всей системе (макросреды).
Наблюдаемая математизация и информатизация современной науки убедительно показывает, что их эффективность зависит как от данной науки, сложности и возможности описания её законов и принципов адекватными математическими и информационными моделями, так и от используемого математического аппарата.
3.6. Базовые (основные) новые информационные технологии исследования и актуализации систем
Новые информационные технологии, наиболее часто используемые системах различного типа и назначения:
- математическое и компьютерное моделирование;
- базы данных и знаний;
- экспертные и интеллектуальные системы;
- средства, технологии планирования и управления с помощью электронных таблиц;
- электронная почта и телекоммуникационные средства;
- автоматизированные системы (обучения, контроля, управления и т.д.), АРМы и интеллектуальные системы управления;
- компьютерные офисы и виртуальные корпорации;
- интегрированные пакеты прикладных программ и среды;
- средства, методы и технологии машинной графики и анимации;
- средства, методы и технологии мультимедиа;
- гипертекстовые технологии и WWW-технологии;
- технологии информационного реинжиниринга, в частности технологии «клиент-сервер»;
- технологии, системы и среды виртуальной реальности;
- когнитивные технологии, в частности, средства и методы визуального и когнитивного программирования;
- объектно-ориентированные технологии, в частности, объектно- ориентированные среды программирования и организации интерфейса;
- средо-ориентированные технологии, в частности, средо-ориентированные системы программирования;
- CASE - технологии и др.
Новые информационные технологии - основа многих других технологий, а также основа нового операционного стиля мышления.
Отношение общего объёма активных информационных ресурсов к общему объёму всех национальных ресурсов является одним из наиболее существенных показателей экономического вектора развития общества по пути построения информационного общества.
Компьютеризация общества и её различных институтов должна быть направлена не только (не столько) на пассивную (статическую) актуализацию информационных ресурсов общества, но и на создание и актуализацию новых информационных технологий, ресурсов, динамическое их переупорядочивание, а также их взаимопроникновение и взаимообогащение в системах вида “человек-технология-знания-система”.
Историческая справка
Информация (informatio) - разъяснение, осведомленность, изложение.
Исторически первым носителем человеческих информации, знаний была речь, представлявшая изначально кодированные звуки для координации действий в человеческом сообществе. Затем появилось наскальное письмо каменного века, далее пиктограммы (“иконы”) бронзового века, иероглифическое письмо (сохраненное до сих пор, например, в Китае) и письмо “обычное” - конкатенацией букв алфавита в слоги (“слоговое письмо”) и т.д.
Объединение систем, процессов, связанных с понятиями “информация”, “управление” привело к появлению нового предмета “кибернетика (или науки об управлении в живых организмах и автоматах)” (40-ые годы 20-го века), изучающей информационные процессы в живых организмах и машинах (автоматах). Кибернетика явилась одной из важных предпосылок появления и развития информатики. В последнее время, предмет кибернетики понемногу, видимо, “поглощается” предметом информатики. Но при этом информатика не зачеркивает кибернетику, которая теперь может развиваться сильнее, используя результаты, методы и технологии информатики.
Понятие энтропии было введено Р.Клаузиусом в 1852 году в качестве удобного средства описания и анализа работы тепловых двигателей. Затем это понятие Л.Больцманом и другими учеными использовано в качестве универсального средства для описания поведения макроскопических систем. Л.Больцманом также установлена связь между энтропией H и термодинамической вероятностью состояния системы W: W=k lnW.
Связь информации и энтропии замечена Л. Сциллардом в 1929 году. К. Шеннон в 1948 году дал определение информации, основываясь на энтропии сообщений, используя ее как меру вероятности информационных процессов.
Э. Шредингер расширил понятие энтропии - рассмотрел её как меру дезорганизации системы любой природы.
Понятие ноосферы (в эколого-социальной трактовке) впервые ввел В.И. Вернадский.
Не нашли то, что искали? Воспользуйтесь поиском гугл на сайте:
|