За мінливістю інформація буває. Види інформації. Значення терміна у різних галузях знання

Мінливість – це індивідуальних відмінностей. На основі мінливості організмів з'являється генетична різноманітність форм, які в результаті дії природного відбору перетворюються на нові підвиди та види. Розрізняють мінливість модифікаційну, або фенотипічну, мутаційну, або генотипічну.

ТАБЛИЦЯ Порівняльна характеристика форм мінливості (Т.Л. Богданова. Біологія. Завдання та вправи. Посібник для вступників до ВНЗ. М., 1991)

Форми мінливості Причини появи Значення Приклади
Неспадкова модифікаційна (фенотипічна) Зміна умов середовища, у результаті організм змінюється у межах норми реакції, заданої генотипом Адаптація - пристосування до даних умов середовища, виживання, збереження потомства Білокачанна капуста в умовах жаркого клімату не утворює качана. Породи коней та корів, завезених у гори, стають низькорослими

Мутаційна
Вплив зовнішніх та внутрішніх мутагенних факторів, внаслідок чого відбувається зміна в генах та хромосомах Матеріал для природного та штучного відбору, так як мутації можуть бути корисні, шкідливі та байдужі, домінантні та рецесивні Поява поліплоїдних форм у популяції рослин або у деяких тварин (комах, риб) призводить до їх репродуктивної ізоляції та утворення нових видів, пологів – мікроеволюції.
Спадкова (генотипічна)
Комбінатна
Виникає стихійно у межах популяції при схрещуванні, коли в нащадків з'являються нові комбінації генів Поширення у популяції нових спадкових змін, які є матеріалом для відбору Поява рожевих квіток при схрещуванні білоквіткової та червоноквіткової примул. При схрещуванні білого та сірого кроликів може з'явитися чорне потомство
Спадкова (генотипічна)
Співвідносна (корелятивна)
Виникає в результаті властивості генів впливати на формування не однієї, а двох і більше ознак Постійність взаємопов'язаних ознак, цілісність організму як системи Довгоногі тварини мають довгу шию. У столових сортів буряків узгоджено змінюється забарвлення коренеплоду, черешків та жилок листа.

Модифікаційна мінливість

Модифікаційна мінливість не викликає змін генотипу, вона пов'язана з реакцією даного, того самого генотипу на зміну зовнішнього середовища: в оптимальних умовах виявляється максимум можливостей, властивих даному генотипу. Так, продуктивність безпородних тварин в умовах покращеного утримання та догляду підвищується (надої молока, нагул м'яса). І тут всі особини з однаковим генотипом відповідають зовнішні умови однаково (Ч. Дарвін цей тип мінливості назвав певної мінливістю). Однак інша ознака - жирність молока - слабко схильний до змін умов середовища, а масть тварини - ще більш стійка ознака. Модифікаційна мінливість зазвичай коливається у межах. Ступінь варіювання ознаки в організму, тобто межі модифікаційної мінливості, називається нормою реакції.

Широка норма реакції властива таким ознакам, як удої молока, розміри листя, забарвлення деяких метеликів; вузька норма реакції - жирності молока, несучості у курей, інтенсивності забарвлення віночків у квіток та ін.

Фенотип формується в результаті взаємодій генотипу та факторів середовища. Фенотипові ознаки не передаються від батьків нащадкам, успадковується лише норма реакції, т. е. характер реагування зміну оточуючих умов. У гетерозиготних організмів за зміни умов середовища можна викликати різні прояви даної ознаки.

Властивості модифікацій: 1) неуспадкованість; 2) груповий характер змін; 3) співвідношення змін дії певного фактора середовища; 4) обумовленість меж мінливості генотипом.

Генотипова мінливість

Генотипова мінливість поділяється на мутаційну та комбінативну. Мутаціями називаються стрибкоподібні та стійкі зміни одиниць спадковості – генів, що тягнуть за собою зміни спадкових ознак. Термін "мутація" був вперше введений де Фрізом. Мутації обов'язково викликають зміни генотипу, які успадковуються потомством і пов'язані з схрещуванням і рекомбінацією генів.

Класифікація мутацій. Мутації можна об'єднувати, групи – класифікувати за характером прояви, за місцем чи, за рівнем їх виникнення.

Мутації характером прояви бувають домінантними і рецесивними. Мутації часто знижують життєздатність чи плодючість. Мутації, що різко знижують життєздатність, частково або повністю зупиняють розвиток, називають напівлетальними, а несумісні з життям – летальними. Мутації поділяють за місцем їх виникнення. Мутація, що виникла у статевих клітинах, не впливає на ознаки даного організму, а проявляється лише у наступному поколінні. Такі мутації називають генеративними. Якщо змінюються гени в соматичних клітинах, такі мутації виявляються в даного організму і передаються потомству при статевому розмноженні. Але при безстатевому розмноженні, якщо організм розвивається з клітини або групи клітин, що мають ген, що змінився - мутував, мутації можуть передаватися потомству. Такі мутації називають соматичними.

Мутації класифікують за рівнем їхнього виникнення. Існують хромосомні та генні мутації. До мутацій відноситься також зміна каріотипу (зміна числа хромосом). Відповідно до цього у рослин розрізняють триплоїди (Зп), тетраплоїди (4п) і т. д. У рослинництві відомо більше 500 поліплоїдів (цукровий буряк, виноград, гречка, м'ята, редиска, цибуля та ін.). Всі вони виділяються великою вегетативною масою та мають велику господарську цінність.

Велике різноманіття поліплоїдів спостерігається в квітникарстві: якщо одна вихідна форма в гаплоїдному наборі мала 9 хромосом, то рослини цього виду, що культивуються, можуть мати 18, 36, 54 і до 198 хромосом. Поліплоїди отримують в результаті впливу на рослини температури, іонізуючої радіації, хімічних речовин (колхіцин), які руйнують веретено поділу клітини. У таких рослин гамети диплоїдні, а при злитті з гаплоїдними статевими клітинами партнера в зиготі виникає триплоїдний набір хромосом (2п + п = Зп). Такі триплоїди не утворюють насіння, вони безплідні, але високоврожайні. Парні поліплоїди утворюють насіння.

Гетероплоїдія – зміна числа Хромосом, не кратна гаплоїдному набору. При цьому набір хромосом у клітині може бути збільшений на одну, дві, три хромосоми (2п + 1; 2п + 2; 2п + 3) або зменшений на одну хромосому (2л-1). Наприклад, у людини з синдромом Дауна виявляється одна зайва хромосома по 21-й парі і каріотип такої людини становить 47 хромосом. Ці та інші подібні відхилення числових відносин у каріотипі людини супроводжуються розладом здоров'я, порушенням психіки та статури, зниженням життєздатності та ін.

Хромосомні мутації пов'язані із зміною структури хромосом. Існують такі види перебудов хромосом: відрив різних ділянок хромосоми, подвоєння окремих фрагментів, поворот ділянки хромосоми на 180 ° або приєднання окремої ділянки хромосоми до іншої хромосоми. Подібна зміна спричиняє порушення функції генів у хромосомі та спадкових властивостей організму, а іноді і його загибель.

Генні мутації торкаються структури самого гена і спричиняють зміну властивостей організму (гемофілія, дальтонізм, альбінізм, забарвлення віночків квіток тощо). Генні мутації виникають як у соматичних, так і у статевих клітинах. Вони можуть бути домінантними та рецесивними. Перші проявляються як у гомозигот, так і. у гетерозигот, другі – тільки у гомозигот. У рослин соматичні генні мутації, що виникли, зберігаються при вегетативному розмноженні. Мутації у статевих клітинах успадковуються при насіннєвому розмноженні рослин та при статевому розмноженні тварин. Одні мутації чинять на організм позитивну дію, інші байдужі, а треті шкідливі, викликаючи або загибель організму, або ослаблення його життєздатності (наприклад, серповидноклітинна анемія, гемофілія у людини).

При виведенні нових сортів рослин і штамів мікроорганізмів використовують індуковані мутації, що штучно викликаються тими чи іншими мутагенними факторами (рентгенівські або ультрафіолетові промені, хімічні речовини). Потім проводять відбір отриманих мутантів, зберігаючи найпродуктивніші. У нашій країні цими методами одержано багато господарсько перспективних сортів рослин: неполеглі пшениці з великим колосом, стійкі до захворювань; високоврожайні томати; бавовник з великими коробочками та ін.

Властивості мутацій:

1. Мутації виникають раптово, стрибкоподібно.
2. Мутації спадкові, т. е. стійко передаються з покоління до покоління.
3. Мутації ненаправденны – мутувати може будь-який локус, викликаючи зміни як незначних, і життєво важливих ознак.
4. Одні й самі мутації можуть виникати повторно.
5. За своїм проявом мутації можуть бути корисними та шкідливими, домінантними та рецесивними.

Здатність до мутування - одна з властивостей гена. Кожна окрема мутація викликається якоюсь причиною, але здебільшого ці причини невідомі. Мутації пов'язані із змінами у зовнішньому середовищі. Це переконливо доводиться тим, що шляхом впливу зовнішніми факторами вдається різко підвищити їхню кількість.

Комбінативна мінливість

Комбінативна спадкова мінливість виникає в результаті обміну гомологічними ділянками гомологічних хромосом у процесі мейозу, а також як наслідок незалежної розбіжності хромосом при мейозі та випадкового їх поєднання при схрещуванні. Мінливість може бути обумовлена ​​не тільки мутаціями, а й поєднаннями окремих генів та хромосом, нова комбінація яких при розмноженні призводить до зміни певних ознак та властивостей організму. Такий тип мінливості називають комбінативною спадковою мінливістю. Нові комбінації генів виникають: 1) при кросинговері, під час профази першого мейотичного поділу; 2) під час незалежного розходження гомологічних хромосом в анафазі першого мейотичного поділу; 3) під час незалежного розбіжності дочірніх хромосом в анафазі другого мейотичного поділу та 4) при злитті різних статевих клітин. Поєднання в зиготі рекомбінованих генів може призвести до поєднання ознак різних порід та сортів.

У селекції важливе значення має закон гомблогічних рядів спадкової мінливості, сформульований радянським ученим М. І. Вавіловим. Він говорить: усередині різних видів та пологів, генетично близьких (тобто мають єдине походження), спостерігаються подібні ряди спадкової мінливості. Такий характер мінливості виявлено у багатьох злаків (рис, пшениця, овес, просо та ін), у яких подібно варіюють забарвлення та консистенція зерна, холодостійкість та інші якості. Знаючи характер спадкових змін в одних сортів, можна передбачати подібні зміни у родинних видів і, впливаючи на них мутагенами, викликати у них подібні корисні зміни, що значно полегшує набуття господарсько цінних форм. Відомі багато прикладів гомологічної мінливості і в людини; наприклад, альбінізм (дефект синтезу клітинами барвника) виявлений у європейців, негрів та індіанців; серед ссавців – у гризунів, хижих, приматів; малорослі темношкірі люди – пігмеї – зустрічаються у тропічних лісах екваторіальної Африки, на Філіппінських островах та у джунглях півострова Малаккі; деякі спадкові дефекти і потворності, властиві людині, відзначені і тварин. Таких тварин використовують як модель вивчення аналогічних дефектів в людини. Наприклад, катаракта очі буває у миші, щура, собаки, коня; гемофілія – у миші та кішки, діабет – у щура; уроджена глухота – у морської свинки, миші, собаки; заяча губа – у миші, собаки, свині тощо. буд. Ці спадкові дефекти – переконливе підтвердження закону гомологічних рядів спадкової мінливості М. І. Вавілова.

Таблиця. Порівняльна характеристика форм мінливості (Т.Л. Богданова. Біологія. Завдання та вправи. Посібник для вступників до ВНЗ. М., 1991)

Характеристика Модифікаційна мінливість Мутаційна мінливість
Об'єкт зміни Фенотип у межах норми реакції Генотип
Відбираючий фактор Зміна умов навколишнього
середи
Зміна умов довкілля
Успадкування при
знаків
Не успадковуються успадковуються
Схильність до змін хромосом Не піддаються Зазнають при хромосомній мутації
Схильність до змін молекул ДНК Не піддаються Зазнають у разі
генної мутації
Значення для особи Підвищує або
знижує життєздатність. продуктивність, адаптацію
Корисні зміни
призводять до перемоги у боротьбі за існування,
шкідливі – до загибелі
Значення для виду Сприяє
виживання
Приводить до утворення нових популяцій, видів тощо в результаті дивергенції
Роль у еволюції Пристосування
організмів до умов середовища
Матеріал для природного відбору
Форма мінливості Певна
(групова)
Невизначена (індивідуальна), комбінативна
Підпорядкованість закономірності Статистична
закономірність
варіаційних рядів
Закон гомологічних
рядів спадкової мінливості

Інформація(Information) - це дані, що супроводжуються смисловим навантаженням.

При цьому, очевидно, те, що для однихє даними, для іншихцілком можливо інформацією. Але завжди можна точно сказати, що потрібно зробити для того, щоб ті чи інші дані стали інформативними для найбільшої аудиторії: їх потрібно забезпечити змістовим змістом. Чим повнішим буде цей зміст, тим більш інформативною буде відповідне повідомлення.

Вхідна інформація- та, яку система сприймає від довкілля. Така інформація називається вхідний інформацією (стосовно системі).

Вихідна інформація(по відношенню до навколишнього середовища) - та, яку система видає у навколишнє середовище.

Внутрішня, внутрішньосистемна інформація(по відношенню до даної системи) - та, що зберігається, переробляється, використовується лише всередині системи, актуалізується лише підсистемами системи.

Інформація щодо кінцевого результату проблеми буває:

  • вихідна (на стадії початку використання актуалізації цієї інформації);
  • проміжна (на стадії від початку до завершення актуалізації інформації);
  • результуюча (після використання цієї інформації, завершення її актуалізації).

Інформація (за її мінливістю під час актуалізації) буває:

  • постійна (не змінена ніколи за її актуалізації);
  • змінна (змінна під час актуалізації);
  • змішана – умовно-постійна (або умовно-змінна).
  • Можлива також класифікація інформації та за іншими ознаками:
  • по стадії використання (первинна, вторинна);
  • по повноті (надлишкова, достатня, недостатня);
  • стосовно мети системи (синтаксична, семантична, прагматична);
  • стосовно елементів системи (статична, динамічна);
  • стосовно структури системи (структурна, відносна);
  • по відношенню до управління системою (керуюча, рекомендуюча, перетворююча);
  • стосовно території (федеральна, регіональна, місцева, що відноситься до юридичної особи, що відноситься до фізичної особи);
  • за доступністю (відкрита або загальнодоступна, закрита чи конфіденційна);
  • по предметній галузі, характером використання (статистична, комерційна, нормативна, довідкова, наукова, навчальна, методична і т.д., змішана) та інші.

Інформація існує у вигляді документів, креслень, малюнків, текстів, звукових та світлових сигналів, електричних та нервових імпульсів тощо.

Основні властивості інформації (та повідомлень):

  • повнота (містить все необхідне розуміння інформації);
  • актуальність (необхідність) та значимість (відомостей);
  • ясність (виразність повідомлень мовою інтерпретатора);
  • адекватність, точність, коректність інтерпретації, прийому та передачі;
  • інтерпретованість та зрозумілість інтерпретатору інформації;
  • достовірність (що відображається повідомленням);
  • вибірковість;
  • адресність;
  • конфіденційність;
  • інформативність і значущість (показів, що відображаються);
  • масовість (застосовність до всіх проявів);
  • кодованість та економічність (кодування, актуалізації повідомлень);
  • стисливість та компактність;
  • захищеність та завадостійкість;
  • доступність (інтерпретатору, приймачеві);
  • цінність (передбачає достатній рівень споживача).

Приклад інформації: 812 рублів, 930 рублів, 944 рублі. Більш інформативне повідомлення: 812 рублів, 930 рублів, 944 рублі - ціни на бальзам після гоління. Ще більш інформативне: 812 рублів, 930 рублів, 944 рублі - ціни на бальзам після гоління "Dune", 100 мл. в Москві.


Інформація- це деяка послідовність відомостей, знань, які актуалізуються (одержуються, передаються, перетворюються, стискаються, реєструються) за допомогою деяких символів символьного, образного, жестового, звукового, сенсомоторного типу.

Інформація - це дані, що розглядаються з урахуванням деякої їхньої семантичної сутності.

У результаті ми маємо таку просту формулу:

інформація = дані + сенс

Методи отримання та використання інформації можна розділити на три групи, що іноді розмежовуються лише умовно:

  1. емпіричні методи чи методи отримання емпіричної інформації (емпіричних даних);
  2. теоретичні методи чи методи отримання теоретичної інформації (побудови теорій);
  3. емпірико-теоретичні методи (змішані, напівемпіричні) чи методи отримання емпірико-теоретичної інформації.

Охарактеризуємо коротко емпіричні методи:

  1. Спостереження - збирання первинної інформації або емпіричних тверджень про систему (у системі).
  2. Порівняння - встановлення загального та різного в досліджуваній системі чи системах.
  3. Вимір - пошук, формулювання емпіричних фактів.
  4. Експеримент - цілеспрямоване перетворення досліджуваної системи (систем) виявлення її (їх) властивостей.

Окрім класичних форм їх реалізації, останнім часом використовуються і такі форми як опитування, інтерв'ю, тестування та інші. Охарактеризуємо коротко емпірико-теоретичні методи.

  1. Абстрагування - встановлення загальних властивостей та сторін об'єкта (або об'єктів), заміщення об'єкта чи системи її моделлю. Абстракція в математиці розуміється у двох сенсах: а) абстракція, абстрагування - метод дослідження деяких явищ, об'єктів, що дозволяє як виділити основні, найважливіші для дослідження властивості, сторони досліджуваного об'єкта або явища, так і ігнорувати несуттєві та другорядні; б) абстракція - опис, уявлення об'єкта (яви), одержуване з допомогою методу абстрагування; особливо важливо в інформатиці таке поняття як абстракція потенційної здійсненності, яке дозволяє нам досліджувати конструктивно об'єкти, системи з потенційною здійсненністю (тобто вони могли б бути здійсненні, якби не було обмежень щодо ресурсів); використовуються і абстракція актуальної нескінченності (існування нескінченних, неконструктивних множин, систем і процесів), а також абстракція ототожнення (можливості ототожнення будь-яких двох однакових літер, символів будь-якого алфавіту, об'єктів, незалежно від місця їх появи в словах, конструкціях, хоча їх інформація це може бути різна).
  2. Аналіз - роз'єднання системи на підсистеми для виявлення їх взаємозв'язків.
  3. Декомпозиція - роз'єднання системи на підсистеми із збереженням їхніх взаємозв'язків із оточенням.
  4. Синтез – з'єднання підсистем у систему з метою виявлення їх взаємозв'язків.
  5. Композиція - з'єднання підсистем у систему із збереженням їх взаємозв'язків із оточенням.
  6. Індукція - отримання знання про систему знання про підсистеми; індуктивне мислення: розпізнавання ефективних рішень, ситуацій і потім проблем, які може вирішувати.
  7. Дедукція - отримання знання про підсистеми знання про систему; дедуктивне мислення: визначення проблеми і потім пошук ситуації, що його вирішує.
  8. Евристики, використання евристичних процедур - отримання знання про систему за знаннями про підсистеми системи та спостереження, досвід.
  9. Моделювання (просте моделювання) та/або використання приладів - отримання знання про об'єкт за допомогою моделі та/або приладів; моделювання ґрунтується на можливості виділяти, описувати та вивчати найбільш важливі фактори та ігнорувати при формальному розгляді другорядні.
  10. Історичний метод - пошук знань про систему шляхом використання її передісторії, що реально існувала або ж мислимою, можливою (віртуальною).
  11. Логічний метод – метод пошуку знань про систему шляхом відтворення її деяких підсистем, зв'язків чи елементів у мисленні, у свідомості.
  12. Макетування - отримання інформації з макету об'єкта чи системи, тобто. за допомогою подання структурних, функціональних, організаційних та технологічних підсистем у спрощеному вигляді, що зберігає інформацію, яка необхідна для розуміння взаємодій та зв'язків цих підсистем.
  13. Актуалізація - отримання з допомогою активізації, ініціалізації сенсу, тобто. переведенням зі статичного (неактуального) стану в динамічний (актуальний) стан; при цьому всі необхідні зв'язки та відносини (відкритої) системи із зовнішнім середовищем повинні бути враховані (саме вони актуалізують систему).
  14. Візуалізація – отримання інформації за допомогою наочного чи візуального подання станів актуалізованої системи; візуалізація передбачає можливість виконання у системі операції типу "пересунути", "повернути", "укрупнити", "зменшити", "видалити", "додати" і т.д. (як щодо окремих елементів, і до підсистем системи). Це спосіб візуального сприйняття інформації.

Крім зазначених класичних форм реалізації теоретико-емпіричних методів, останнім часом часто використовуються і такі форми як моніторинг (система спостережень та аналізу станів системи), ділові ігри та ситуації, експертні оцінки (експертне оцінювання), імітація (наслідування), верифікація (порівняння з досвідом та висновок про навчання) та інші форми.

Охарактеризуємо коротко теоретичні методи.

  1. Сходження від абстрактного до конкретного – отримання знань про систему на основі знань про її абстрактні прояви у свідомості, у мисленні.
  2. Ідеалізація - отримання знань про систему або її підсистеми шляхом уявного конструювання, подання в мисленні систем та/або підсистем, що не існують насправді.
  3. Формалізація - отримання знань про систему з допомогою знаків чи формул, тобто. мов штучного походження, наприклад, мови математики (або математичний, формальний опис, уявлення).
  4. Аксіоматизація - отримання знань про систему або процес за допомогою деяких спеціально для цього сформульованих аксіом і правил виведення з цієї системи аксіом.
  5. Віртуалізація - отримання знань про систему створенням особливого середовища, обстановки, ситуації (в яку міститься досліджувана система та/або її досліджуваний суб'єкт), яку реально, без цього середовища, неможливо реалізувати та отримати відповідні знання.

Інформація(від латів. informatio, роз'яснення, виклад, поінформованість) - відомості про що-небудь, незалежно від форми їх подання.

Нині немає єдиного визначення інформації як наукового терміна. З погляду різних галузей знання це поняття описується своїм специфічним набором ознак. Наприклад, поняття «інформація» є базовим у курсі інформатики, і неможливо дати його визначення через інші, більш «прості» поняття (так само, в геометрії, наприклад, неможливо виразити зміст базових понять «точка», «промінь», «площина») через простіші поняття). p align="justify"> Зміст основних, базових понять в будь-якій науці має бути пояснено на прикладах або виявлено шляхом їх зіставлення зі змістом інших понять. Що стосується поняттям «інформація» проблема визначення ще складніша, оскільки є загальнонауковим поняттям. Дане поняття використовується в різних науках (інформатиці, кібернетиці, біології, фізиці та ін.), причому у кожній науці поняття «інформація» пов'язане з різними системами понять.

Історія поняття

Слово «інформація» походить від латів. informatio, що у перекладі означає зведення, роз'яснення, ознайомлення. Поняття інформації розглядалося ще античними філософами.

До початку промислової революції визначення суті інформації залишалося прерогативою переважно філософів. У XX столітті питаннями теорії інформації почали займатися кібернетика та інформатика.

Класифікація інформації

Інформацію можна розділити на види за різними критеріями:

по способу сприйняття:

по формі подання:

по призначенню:

по значенням:

  • Актуальна – інформація, цінна в даний момент часу.
  • Достовірна – інформація, отримана без спотворень.
  • Зрозуміла - інформація, виражена мовою, зрозумілою тому, кому вона призначена.
  • Повна - інформація, достатня прийняття правильного рішення чи розуміння.
  • Корисна - корисність інформації визначається суб'єктом, який отримав інформацію залежно від обсягу можливостей її використання.

по істинності:

Значення терміна у різних галузях знання

Філософія

Традиціоналізм суб'єктивного постійно домінував у ранніх філософських визначеннях інформації, як категорії, поняття, властивості матеріального світу. Інформація існує незалежно від нашої свідомості, і може відображатись у нашому сприйнятті лише як результат взаємодії: відображення, читання, отримання у вигляді сигналу, стимулу. Інформація нематеріальна, як і властивості матерії. Інформація стоїть у ряду: матерія, простір, час, системність, функція, та ін. Інформація - властивість матерії і відбиває її властивості (стан чи здатність взаємодії) і кількість (захід) шляхом взаємодії.

З матеріального погляду інформація - це порядок прямування об'єктів матеріального світу. Наприклад, порядок проходження літер на аркуші паперу за певними правилами є письмовою інформацією. Порядок проходження різнокольорових точок на аркуші паперу за певними правилами є графічною інформацією. Порядок проходження музичних нот є музичною інформацією. Порядок проходження генів у ДНК є спадковою інформацією. Порядок проходження бітів в ЕОМ є комп'ютерною інформацією і т. д. і т. п. Для здійснення інформаційного обміну потрібна наявність необхідних та достатніх умов.

Необхідні умови:

  1. Наявність щонайменше двох різних об'єктів матеріального чи нематеріального світу.
  2. Наявність у об'єктів загальної властивості, що дозволяє ідентифікувати об'єкти як носій інформації.
  3. Наявність в об'єктів специфічної якості, що дозволяє розрізняти об'єкти друг від друга.
  4. Наявність якості простору, що дозволяє визначити порядок прямування об'єктів. Наприклад, розташування письмової інформації на папері - це специфічна властивість паперу, що дозволяє розташовувати букви зліва направо та зверху донизу.

Достатня умова одна:

Наявність суб'єкта, здатного розпізнавати інформацію. Це і людське суспільство, суспільства тварин, роботів тощо.

Різні об'єкти (літери, символи, картинки, звуки, слова, речення, ноти тощо) взяті по одному разу утворюють базис інформації. Інформаційне повідомлення будується шляхом вибору з базису копій об'єктів та розташування цих об'єктів у просторі у визначеному порядку. Довжина інформаційного повідомлення визначається як кількість копій об'єктів базису та завжди виражається цілим числом. Необхідно розрізняти довжину інформаційного повідомлення, яке завжди вимірюється цілим числом, та кількість знань, що міститься в інформаційному повідомленні, яке вимірюється у невідомій одиниці виміру.

З математичної погляду інформація - це послідовність цілих чисел, які записані у вектор. Числа – це номер об'єкта у базисі інформації. Вектор називається інваріантом інформації, оскільки він залежить від фізичної природи об'єктів базису. Те саме інформаційне повідомлення може бути виражене літерами, словами, пропозиціями, файлами, картинками, нотами, піснями, відеокліпами, будь-якою комбінацією всіх раніше названих. Чим би ми не висловлювали інформацію – змінюється лише базис, а не інваріант.

В інформатиці

Предметом вивчення науки інформатика є саме дані: методи їх створення, зберігання, обробки та передачі. А сама інформація, зафіксована в даних, її змістовний зміст цікаві користувачам інформаційних систем, які є фахівцями різних наук та галузей діяльності: медика цікавить медична інформація, геолога – геологічна, підприємця – комерційна тощо (у тому числі фахівця з інформатики цікавить інформація з питань роботи з даними).

Системологія

Робота з інформацією пов'язана з перетвореннями та завжди підтверджує її матеріальну природу:

  • запис - формування структури матерії та модуляції потоків шляхом взаємодії інструменту з носієм;
  • зберігання - стабільність структури (квазістатика) та модуляції (квазідинаміка);
  • читання (вивчення) - взаємодія зонда (інструменту, перетворювача, детектора) із субстратом чи потоком матерії.

Системологія розглядає інформацію через зв'язок коїться з іншими підставами: I=S/F, де: I - інформація; S – системність світобудови; F – функціональний зв'язок; M – матерія; v – (v підкреслене) знак великого об'єднання (системності, єдності підстав); R – простір; T – Час.

У фізиці

Об'єкти матеріального світу перебувають у стані безперервної зміни, що характеризується обміном енергією об'єкта із довкіллям. Зміна стану одного об'єкта завжди призводить до зміни стану іншого об'єкта навколишнього середовища. Це незалежно від того, як, які саме стану та яких саме об'єктів змінилися, може розглядатися як передача сигналу від одного об'єкта іншому. Зміна стану об'єкта під час передачі йому сигналу називається реєстрацією сигналу.

Сигнал або послідовність сигналів утворюють повідомлення, яке може бути сприйняте одержувачем у тому чи іншому вигляді, а також у тому чи іншому обсязі. Інформація у фізиці є термін, який якісно узагальнює поняття «сигнал» та «повідомлення». Якщо сигнали та повідомлення можна обчислювати кількісно, ​​то можна сказати, що сигнали та повідомлення є одиницями вимірювання обсягу інформації.

Одне й те повідомлення (сигнал) різними системами інтерпретується по-своєму. Наприклад, послідовно довгий і два короткі звукові (а тим більше символьне кодування -..) сигналу в термінології абетки Морзе - це буква Д (або D), в термінології БІОС від фірми AWARD - несправність відеокарти.

У математиці

У математиці теорія інформації (математична теорія зв'язку) - розділ прикладної математики, що визначає поняття інформації, її властивості та встановлює граничні співвідношення для систем передачі даних. Основні розділи теорії інформації - кодування джерела (що стискає кодування) та канальне (перешкодостійке) кодування. Математика є більшою ніж науковою дисципліною. Вона створює єдину мову усієї Науки.

Предметом досліджень математики є абстрактні об'єкти: число, функція, вектор, безліч та інші. При цьому більшість з них вводиться аксиоматично (аксіома), тобто без будь-якого зв'язку з іншими поняттями і без будь-якого визначення.

Інформація не входить до предметів дослідження математики. Проте слово «інформація» вживається в математичних термінах - власна інформація та взаємна інформація, що належать до абстрактної (математичної) частини теорії інформації. Проте, у математичної теорії поняття «інформація» пов'язані з виключно абстрактними об'єктами - випадковими величинами, тоді як і сучасної теорії інформації це поняття розглядається значно ширше - як властивість матеріальних об'єктів.

Зв'язок між двома однаковими термінами безсумнівна. Саме математичний апарат випадкових чисел використав автор теорії інформації Клод Шеннон. Сам він має на увазі під терміном «інформація» щось фундаментальне (нередуковане). Теоретично Шеннона інтуїтивно вважається, що інформація має зміст. Інформація зменшує загальну невизначеність та інформаційну ентропію. Кількість інформації доступна виміру. Однак він застерігає дослідників від механічного перенесення понять з його теорії до інших галузей науки.

«Пошук шляхів застосування теорії інформації в інших сферах науки не зводиться до тривіального перенесення термінів з однієї галузі науки в іншу. Цей пошук здійснюється у тривалому процесі висування нових гіпотез та їх експериментальної перевірки.» К. Шеннон.

У юриспруденції

Правове визначення поняття «інформація» дано у федеральному законі від 27 липня 2006 року № 149-ФЗ «Про інформацію, інформаційні технології та захист інформації» (Стаття 2): «інформація - відомості (повідомлення, дані) незалежно від форми їх подання» .

Федеральний закон № 149-ФЗ визначає та закріплює права на захист інформації та інформаційну безпеку громадян та організацій в ЕОМ та в інформаційних системах, а також питання інформаційної безпеки громадян, організацій, суспільства та держави.

Теоретично управління

Теоретично управління (кібернетиці), предметом дослідження якої є основні закони управління, тобто розвитку систем управління, інформацією називаються повідомлення, одержувані системою із зовнішнього світу при адаптивному управлінні (пристосуванні, самозбереженні системи управління).

Засновник кібернетики Норберт Вінер говорив про інформацію так:

"Інформація – це не матерія і не енергія, інформація – це інформація". Але основне визначення інформації, яке він дав у кількох своїх книгах, таке: інформація - це позначення змісту, отримане нами із зовнішнього світу в процесі пристосування до нього нас та наших почуттів.

- Н. ВінерКібернетика, або управління та зв'язок у тваринному та машині; або Кібернетика та суспільство

Ця думка Вінера дає пряме вказівку на об'єктивність інформації, тобто її існування у природі незалежно від свідомості (сприйняття) людини.

Об'єктивну інформацію сучасна кібернетика визначає як об'єктивне властивість матеріальних об'єктів і явищ породжувати різноманіття станів, які у вигляді фундаментальних взаємодій матерії передаються від одного об'єкта (процесу) іншому, і відбиваються у його структурі.

Матеріальна система в кібернетиці сприймається як безліч об'єктів, які власними силами можуть у різних станах, але стан кожного їх визначається станами інших об'єктів системи. У природі безліч станів системи є інформацією, самі стани є первинний код, або код джерела. Таким чином кожна матеріальна система є джерелом інформації.

Суб'єктивну (семантичну) інформацію кібернетика визначає як зміст чи зміст повідомлення. (Див. там же) Інформація - це характеристика об'єкта.

Дезінформація

Дезінформацією (також дезінформуванням) називається один із способів маніпулювання інформацією, як то введення будь-кого в оману шляхом надання неповної інформації або повної, але вже не потрібної інформації, або повної, але не в потрібній області, спотворення контексту, спотворення частини інформації.

Мета такого впливу завжди одна – опонент повинен вчинити так, як це необхідно маніпулятору. Вчинок об'єкта, проти якого спрямована дезінформація, може полягати у прийнятті потрібного маніпулятора рішення або відмовитися від прийняття невигідного для маніпулятора рішення. Але в будь-якому випадку кінцева мета - це дія, яка буде вжита.

Світ інформації величезний і багатогранний. Існує дуже велика кількість різних підстав видової класифікації інформації та інформаційних процесів.

Розглянемо основні загальновизнані видові класифікації інформації.

Насамперед виділення різних видів інформації відбувається у сфері виникнення.Інформацію, що виникла у неживій природі, називають елементарною, у світі тварин - біологічної, у людському суспільстві – соціальної. У природі (живий та неживий) інформацію несуть світло, тінь, колір, звуки та запахи. В результаті поєднання кольору, світла та тіні, а також звуків та запахів виникає естетична інформація. Поряд з природною естетичною інформацією як результат творчої діяльності людей виник інший її різновид – твори мистецтва(художні, музичні та ін.).

Крім естетичної інформації, у суспільстві створюється семантична інформаціяяк результат пізнання законів природи, суспільства та мислення.

Розподіл інформації на естетичну та семантичну умовно. Будь-яка інформація одночасно і естетична і семантична, тільки в одній може переважати естетична сторона, а в іншій семантична.

Інший критерій поділу на види – це за способом сприйняття інформації. У людини п'ять органів чуття:

Зір; за допомогою очей люди розрізняють кольори, сприймають зорову інформацію, до якої належать і текстова, і числова, і графічна;

Слух; вуха допомагають сприймати звукову інформацію- Мова, музику, звукові сигнали, шум;

Нюхання; за допомогою носа люди отримують інформацію про запахи навколишнього світу ( нюхова);

Смак; смакові рецептори мови дають можливість отримати інформацію про те, який предмет на смак – гіркий, кислий, солодкий, солоний ( смакова);

Дотик; кінчиками пальців (або просто шкірою), навпомацки можна отримати інформацію про температуру предмета - гарячий він або холодний, про якість його поверхні - гладкий або шорсткий ( тактильна).

За формою поданняінформація поділяється на текстову, числову, графічну, звукову, комбіновану.

Текстова інформація – це, наприклад, текст у підручнику, твір у зошит тощо.

Прикладами числової інформації є таблиця множення, арифметичний приклад, рахунок у хокейному матчі.

Графічна інформація - це малюнки, схеми, креслення, фотографії. Така форма представлення інформації найдоступніша, оскільки відразу передає необхідний образ (модель), а словесна і числова вимагають уявного відтворення образу. У той же час графічна форма подання не дає вичерпних роз'яснень про інформацію, що передається. Тому найефективніше поєднання тексту, числа і графіки (наприклад, під час вирішення завдань з геометрії ми використовуємо креслення (графіка) + пояснювальний текст (текст) + числові розрахунки (числа)).

Звукова інформація - це всілякі звуки та їх поєднання, що оточують нас.

Комбінована (мультимедійна) форма подання інформації в обчислювальній техніці стає основною. Кольорова графіка поєднується в цих системах зі звуком і текстом, з відеозображенням, що рухається, і тривимірними образами.

За суспільним значеннямінформацію ділять на масову, спеціальнуі особисту. Масова інформація призначена для населення незалежно від віку, статі, роду занять. Спеціальна інформація розрахована на різні категорії спеціалістів. Особиста інформація адресується обмеженому колу осіб, пов'язаних родинними, дружніми та іншими відносинами.

Масову інформацію можна розділити на суспільно-політичну, звичайну, науково-популярну, естетичну. Спеціальну інформацію ділять на наукову, технічну, виробничу, управлінськута ін Наукова інформація виникає у сфері науки в результаті вивчення закономірностей навколишньої природи, суспільного розвитку та мислення. Технічна інформація створюється в процесі досліджень та розробок у галузі механізації та автоматизації трудової діяльності людей. Виробнича інформація виникає у сфері виробництва, збуту та використання промислової та сільськогосподарської продукції.

У свою чергу наукова інформація класифікується з областей наук ( математична, астрономічна, філософська, за громадськимі естесттехнічна – по галузях народного господарства ( машинобудування, приладобудування, верстатобудування, транспорт, будівництво, сільське господарствота ін), виробнича – залежно від характеру виробничих процесів ( конструкторська, технологічна, планово-економічна, експлуатаційна, про передовий досвідта ін.).

Інформація стосовно довкілля(або до використовує її середовищі) буває трьох типів: вхідна, вихідна та внутрішня.

Вхідна інформація(По відношенню до навколишнього середовища) - інформація, яку система сприймає від навколишнього середовища.

Вихідна інформація(стосовно довкілля) – інформація, яку система видає у довкілля.

Внутрішня, внутрішньосистемна інформація(стосовно системі) – інформація, яка зберігається, переробляється, використовується лише всередині системи, тобто. що актуалізується лише підсистемами даної системи. Це дещо ідеалізоване (особливо з погляду фізики відкритих систем) поняття.

приклад. Людина сприймає, обробляє вхідну інформацію, скажімо, дані про погоду на вулиці, і формує відповідну вихідну реакцію – наскільки тепло потрібно одягтися. При цьому використовується також внутрішня інформація - генетично закладена або придбана фізіологічна інформація про подібну реакцію, наприклад про морозостійкість даної людини.

Інформація по відношенню до кінцевого результату проблемибуває:

вихідний(на початок актуалізації цієї інформації);

проміжною(від початку до завершення актуалізації інформації);

результуючої(Після завершення її актуалізації).

приклад. При вирішенні системи лінійних рівнянь алгебри інформація про методи рішення, середовищі реалізації, вхідних даних (джерела, точність і т.д.), розмірності системи та іншому є вихідною, інформація про сумісність системи рівнянь, чисельних значеннях кореня і т.д. – результуючої, інформація про поточні стани коефіцієнтів рівнянь реалізації схеми Гауса – проміжної.

Інформація через мінливість при її актуалізаціїбуває:

постійною(Не змінюється ніколи при її актуалізації);

змінної(змінюється під час актуалізації);

змішаної(Умовно-постійної або умовно-змінної).

приклад. У відомої фізичної задачі визначення дальності польоту снаряда артилерійської зброї інформація про вугіллі нахилу зброї може бути змінною, інформація про початкову швидкість вильоту снаряда - постійною, а інформація про координати мети - умовно-постійною.

Можлива також класифікація інформації та за іншими ознаками:

По стадії використання (первинна, вторинна);

По повноті (надлишкова, достатня, недостатня);

По відношенню до мети системи (синтаксична, семантична, прагматична);

По відношенню до елементів системи (статична, динамічна);

По відношенню до структури системи (структурна, відносна);

По відношенню до управління системою (керуюча, рекомендуюча, перетворююча, змішана);

доступу (відкрита або загальнодоступна, закрита або конфіденційна, змішана);

По відношенню до території (федеральна, регіональна, місцева, що відноситься до юридичної особи, що відноситься до фізичної особи, змішана);

По предметної області, характером використання (статистична, комерційна, нормативна, довідкова, наукова, навчальна, методична тощо., змішана) та інших.


Подібна інформація.


Інформація - це відомості про що-небудь

Поняття та види інформації, передача та обробка, пошук та зберігання інформації

Розгорнути зміст

Згорнути зміст

Інформація - це визначення

Інформація - цебудь-які відомості, що приймаються та передаються, що зберігаються різними джерелами. Інформація - це вся сукупність відомостей про навколишній світ, про всілякі процеси, що протікають у ньому, які можуть бути сприйняті живими організмами, електронними машинами та іншими інформаційними системами.

- цеЗначні відомості про що-небудь, коли форма їх уявлення також є інформацією, тобто має функцію форматування відповідно до своєї природи.

Інформація - цевсе те, чим можуть бути доповнені наші знання та припущення.

Інформація - цевідомості про щось, незалежно від форми їх уявлення.

Інформація - цепсихічний продукт будь-якого психофізичного організму, вироблений ним під час використання будь-якого засобу, званого засобом інформації.

Інформація - цевідомості, що сприймаються людиною та (або) спец. пристроями як відображення фактів матеріального чи духовного світу у процесі комунікації.

Інформація - цедані, організовані таким чином, що мають сенс для людини, яка має з ними справу.

Інформація - цезначення, що вкладається людиною в дані на підставі відомих угод, що використовуються для їх подання.


Інформація - цевідомості, роз'яснення, виклад.

Інформація - цебудь-які дані чи відомості, які будь-кого цікавлять.

Інформація - цевідомості про об'єкти та явища навколишнього середовища, їх параметри, властивості та стан, які сприймають інформаційні системи (живі організми, керуючі машини та ін.) у процесі життєдіяльності та роботи.

Те саме інформаційне повідомлення (стаття в газеті, оголошення, лист, телеграма, довідка, розповідь, креслення, радіопередача тощо) може містити різну кількість інформації для різних людей - залежно від їх попередніх знань, від рівня розуміння цього повідомлення та інтересу до нього.

У випадках, коли говорять про автоматизовану роботу з інформацією за допомогою будь-яких технічних пристроїв, цікавляться змістом повідомлення, а тим, скільки символів це повідомлення містить.

Стосовно комп'ютерної обробки даних під інформацією розуміють деяку послідовність символічних позначень (літер, цифр, закодованих графічних образів і звуків і т.п.), несучу смислове навантаження і представлену у зрозумілому комп'ютері вигляді. Кожен новий символ у такій послідовності символів збільшує інформаційний обсяг повідомлення.


Нині немає єдиного визначення інформації як наукового терміна. З погляду різних галузей знання це поняття описується своїм специфічним набором ознак. Наприклад, поняття «інформація» є базовим у курсі інформатики, і неможливо дати його визначення через інші, більш «прості» поняття (так само, в геометрії, наприклад, неможливо висловити зміст базових понять «точка», «пряма», «площина») через простіші поняття).


p align="justify"> Зміст основних, базових понять в будь-якій науці має бути пояснено на прикладах або виявлено шляхом їх зіставлення зі змістом інших понять. Що стосується поняттям «інформація» проблема визначення ще складніша, оскільки є загальнонауковим поняттям. Дане поняття використовується в різних науках (інформатиці, кібернетиці, біології, фізиці та ін.), причому у кожній науці поняття «інформація» пов'язане з різними системами понять.


Поняття інформації

У сучасній науці розглядаються два види інформації:

Об'єктивна (первинна) інформація - властивість матеріальних об'єктів і явищ (процесів) породжувати різноманіття станів, які у вигляді взаємодій (фундаментальні взаємодії) передаються іншим об'єктам і зберігаються у тому структурі.

Суб'єктивна (семантична, смислова, вторинна) інформація – смисловий зміст об'єктивної інформації про об'єкти та процеси матеріального світу, сформований свідомістю людини за допомогою смислових образів (слів, образів та відчуттів) та зафіксований на якомусь матеріальному носії.


У побутовому сенсі інформація - відомості про навколишній світ і процеси, що протікають в ньому, сприймаються людиною або спеціальним пристроєм.

Нині немає єдиного визначення інформації як наукового терміна. З погляду різних галузей знання, це поняття описується своїм специфічним набором ознак. Відповідно до концепції До. Шеннона, інформація - це знята невизначеність, тобто. відомості, які мають зняти тією чи іншою мірою існуючу у споживача до отримання невизначеності, розширити його розуміння об'єкта корисними відомостями.


З точки зору Грегорі Бетона елементарна одиниця інформації це "небайдужа відмінність" або дієва відмінність для якоїсь більшої системи, що сприймає. Ті відмінності, які сприймаються, він називає " потенційними " , а сприйняті - " дієвими " . "Інформація складається з небайдужих відмінностей» (с) "Будь-яке сприйняття інформації з необхідністю є отриманням відомостей про відмінність». З погляду інформатики, інформація має низку фундаментальних властивостей: новизна, актуальність, достовірність, об'єктивність, повнота, цінність та інших. Аналізом інформації займається, передусім, наука логіка. Слово «інформація» походить від латинського слова informatio, що у перекладі означає зведення, роз'яснення, ознайомлення. Поняття інформації розглядалося ще античними філософами.

До початку промислової революції визначення суті інформації залишалося прерогативою переважно філософів. Далі розглядати питання теорії інформації стала на той час наука кібернетика.

Іноді для того, щоб осягнути суть якогось поняття, корисно аналізувати значення слова, яким це поняття позначається. Прояснення внутрішньої форми слова та вивчення історії його вживання може пролити несподіване світло на його зміст, що затьмарюється звичним "технологічним" використанням цього слова та сучасними конотаціями.

Слово інформація увійшло російську мову в Петровську епоху. Вперше фіксується в "Духовному регламенті" 1721 р. у значенні "подання, поняття про що-л.". (У європейських мовах воно закріпилося раніше – близько XIV ст.)

Виходячи з цієї етимології, інформацією можна вважати будь-яку значущу зміну форми або, іншими словами, будь-які матеріально зафіксовані сліди, утворені взаємодією предметів або сил і які розуміються. Інформація, таким чином, це перетворена форма енергії. Носієм інформації є знак, а способом її існування – тлумачення: виявлення значення знака чи послідовності знаків.

Значенням може бути реконструйована по знаку подія, що спричинило його виникнення (у разі "природних" і мимовільних знаків, таких, як сліди, докази та ін.), або повідомлення (у разі умовних знаків, властивих сфері мови). Саме другий різновид знаків становить тіло людської культури, яка, згідно з одним з визначень, є "сукупністю інформації, що не спадково передається".

Повідомлення можуть містити інформацію про факти або інтерпретацію фактів (від лат. interpretatio, тлумачення, переклад).

Живе істота отримує інформацію з допомогою органів чуття, і навіть роздуми чи інтуїції. Обмін інформацією між суб'єктами є спілкування чи комунікація (від лат. communicatio, повідомлення, передача, похідне своєю чергою від лат. communico, робити спільним, повідомляти, розмовляти, з'єднувати).

З практичної точки зору інформація завжди подається у вигляді повідомлення. Інформаційне повідомлення пов'язане з джерелом повідомлення, одержувачем повідомлення та каналом зв'язку.


Повертаючись до латинської етимології слова інформація, спробуємо відповісти питанням, чому саме надається тут форма.

Вочевидь, що, по-перше, певному сенсу, який, будучи спочатку безформним і невираженим, існує лише потенційно і має бути "побудований", щоб стати сприйманим і переданим.

По-друге, людському розуму, який виховується мислити структурно та ясно. По-третє, суспільству, яке саме завдяки тому, що його члени поділяють ці смисли та спільно їх використовують, набуває єдності та функціональності.

Інформація як виражений розумний сенс є знання, яке може зберігатися, передаватися і бути основою породження іншого знання. Форми консервації знання (історична пам'ять) різноманітні: від міфів, літописів та пірамід до бібліотек, музеїв та комп'ютерних баз даних.

Інформація - відомості про навколишній світ, про процеси, що протікають в ньому, які сприймають живі організми, керуючі машини та інші інформаційні системи.

Слово "інформація" латинське. За довге життя його значення зазнавало еволюції, то розширюючи, то гранично звужуючи свої межі. Спочатку під словом "інформація" мали на увазі: "подання", "поняття", потім-"відомості", "передача повідомлень".


В останні роки вчені вирішили, що звичайне (усі прийняте) значення слова «інформація» надто еластично, розпливчасто, і дали йому таке значення: «міра визначеності у повідомленні».

Теорію інформації викликали життя потреби практики. Її виникнення пов'язують із роботою Клода Шеннона «Математична теорія зв'язку», виданої 1946г. Основи теорії інформації спираються на результати, отримані багатьма вченими. До другої половини XX століття земна куля гула від інформації, що передається, що біжить по телефонних і телеграфних кабелях і радіоканалах. Пізніше з'явилися електронні обчислювальні машини – переробники інформації. А для того часу основним завданням теорії інформації було насамперед підвищення ефективності функціонування систем зв'язку. Складність при проектуванні та експлуатації засобів, систем та каналів зв'язку в тому, що конструктору та інженеру недостатньо вирішити завдання з фізичних та енергетичних позицій. З цих точок зору система може бути найдосконалішою та економічною. Але важливо ще при створенні передавальних систем звернути увагу на те, яка кількість інформації пройде через цю систему. Адже інформацію можна виміряти кількісно, ​​підрахувати. І чинять при подібних обчисленнях звичайнісіньким шляхом: абстрагуються від сенсу повідомлення, як відмовляються від конкретності в звичних всім нам арифметичних діях (як від складання двох яблук і трьох яблук переходять до складання чисел взагалі: 2+3).


Вчені заявили, що вони «цілком ігнорували людську оцінку інформації». Послідовному ряду зі 100 літер, наприклад, вони приписують певне значення інформації, не звертаючи уваги, чи ця інформація має сенс і чи має, у свою чергу, сенс практичне застосування. Кількісний підхід – найбільш розроблена гілка теорії інформації. Відповідно до цього визначення сукупність 100 літер - фраза зі 100 літер із газети, п'єси Шекспіра або теореми Ейнштейна - має в точності однакову кількість інформації.


Таке визначення кількості інформації є надзвичайно корисним і практичним. Воно точно відповідає завданню інженера зв'язку, який повинен передати всю інформацію, що міститься в поданій телеграмі, незалежно від цінності цієї інформації для адресата. Канал зв'язку бездушний. Передавальної системи важливо одне: передати потрібну кількість інформації за певний час. Як же обчислити кількість інформації у конкретному повідомленні?

Оцінка кількості інформації ґрунтується на законах теорії ймовірностей, точніше, визначається через ймовірність подій. Це зрозуміло. Повідомлення має цінність, несе інформацію лише тоді, коли ми дізнаємося з нього про результат події, що має випадковий характер, коли вона певною мірою несподівано. Адже повідомлення про вже відоме жодної інформації не містить. Тобто. якщо вам, припустимо, хтось зателефонує і скаже: «Днем буває світло, а вночі темно», то таке повідомлення вас здивує лише безглуздістю висловлювання очевидного та всім відомого, а не новиною, яку воно містить. Інша річ, наприклад, результат забігу на стрибках. Хто прийде першим? Вихід тут важко передбачити. Чим більше подія, що цікавить нас, має випадкових результатів, тим цінніше повідомлення про його результат, тим більше інформації. Повідомлення про подію, яка має лише два однаково можливі результати, містить одну одиницю інформації, яку називають бітом. Вибір одиниці інформації не випадковий. Він пов'язаний із найбільш поширеним двійковим способом її кодування при передачі та обробці. Спробуємо хоча б у спрощеному вигляді уявити той загальний принцип кількісної оцінки інформації, що є наріжним каменем всієї теорії інформації.


Ми вже знаємо, що кількість інформації залежить від ймовірностей тих чи інших наслідків події. Якщо подія, як кажуть вчені, має два рівноймовірні результати, це означає, що ймовірність кожного результату дорівнює 1/2. Такою є ймовірність випадання «орла» або «решки» при киданні монети. Якщо подія має три рівноймовірні результати, то ймовірність кожного дорівнює 1/3. Зауважте, сума ймовірностей всіх результатів завжди дорівнює одиниці: адже якийсь із усіх можливих результатів обов'язково настане. Подія, як ви розумієте, може мати і нерівноймовірні результати. Так, при футбольному матчі між сильною та слабкою командами ймовірність перемоги сильної команди велика – наприклад, 4/5. Імовірність нічиєї набагато менша, наприклад 3/20. Імовірність поразки дуже мала.


Виходить, що кількість інформації – це міра зменшення невизначеності певної ситуації. Різні кількості інформації передаються каналами зв'язку, і кількість проходить через канал інформації може бути більше його пропускної спроможності. А її визначають за тим, скільки інформації проходить тут за одиницю часу. Один із героїв роману Жюля Верна «Таємничий острів», журналіст Гедеон Спіллет, передавав телефоном главу з Біблії, щоб його конкуренти не могли скористатися телефонним зв'язком. І тут канал був завантажений повністю, а кількість інформації дорівнювало нулю, бо абоненту передавалися відомі йому відомості. Отже, канал працював вхолосту, пропустивши певну кількість імпульсів, нічим їх не навантаживши. Тим більше що більше інформації несе кожен із певного числа імпульсів, тим повніше використовується пропускна здатність каналу. Тому потрібно розумно кодувати інформацію, знайти економну, скупу мову передачі повідомлень.


Інформацію «просіюють» ретельно. У телеграфі літери, що часто зустрічаються, поєднання літер, навіть цілі фрази зображують більш коротким набором нулів і одиниць, а ті, що зустрічаються рідше, - довшим. У випадку, коли зменшують довжину кодового слова для символів, що часто зустрічаються, і збільшують для рідко зустрічаються, говорять про ефективне кодування інформації. Але на практиці досить часто трапляється, що код, що виник у результаті найретельнішого «просіювання», код зручний і економний, може спотворити повідомлення через перешкоди, які завжди, на жаль, бувають у каналах зв'язку: спотворення звуку в телефоні, атмосферні перешкоди радіо, спотворення або затемнення зображення в телебаченні, помилки при передачі в телеграфі. Ці перешкоди, або, як їх називають фахівці, шуми обрушуються на інформацію. А від цього бувають найнеймовірніші і, природно, неприємні несподіванки.


Тому підвищення надійності передачі та обробці інформації доводиться запроваджувати зайві символи - своєрідну захист від спотворень. Вони – ці зайві символи – не несуть дійсного змісту у повідомленні, вони надмірні. З точки зору теорії інформації все те, що робить мову барвистим, гнучким, багатим на відтінки, багатоплановим, багатозначним, - надмірність. Як надмірно з таких позицій листа Тетяни до Онєгіна! Скільки в ньому інформаційних надмірностей для короткого та всім зрозумілого повідомлення «Я вас люблю»! І як інформаційно точні мальовані позначення, зрозумілі всім і кожному, хто входить сьогодні в метро, ​​де замість слів та фраз оголошень висять лаконічні символьні знаки, що вказують: Вхід, Вихід.


У цьому зв'язку корисно згадати анекдот, розказаний свого часу знаменитим американським ученим Бенджаменом Франкліном, про капелюшника, який запросив своїх друзів для обговорення проекту вивіски. . Один із друзів зауважив, що слова «за готівку» є зайвими – таке нагадування буде образливим для покупця. Інший знайшов також зайвим слово «продає», оскільки зрозуміло, що капелюшник продає капелюхи, а не роздає їх задарма. Третьому здалося, що слова «капелюшник» і «робить капелюхи» є непотрібною тавтологією, і останні слова були викинуті. Четвертий запропонував викинути і слово «капелюшник» - намальований капелюх ясно говорить, хто такий Джон Томпсон. Нарешті, п'ятий запевняв, що для покупця абсолютно байдуже, чи капелюшник називатиметься Джоном Томпсоном чи інакше, і запропонував обійтися без цієї вказівки. Таким чином, зрештою на вивісці не залишилося нічого, крім капелюха. Звичайно, якби люди користувалися тільки такого роду кодами, без надмірності в повідомленнях, то всі «інформаційні форми» – книги, доповіді, статті – були б гранично короткими. Але програли б у дохідливості та красі.

Інформацію можна розділити на види за різними критеріями: за істинністю:істинна та хибна;

за способом сприйняття:

Візуальна – сприймається органами зору;

Аудіальна – сприймається органами слуху;

Тактильна – сприймається тактильними рецепторами;

Нюхальна - сприймається нюховими рецепторами;

Смакова – сприймається смаковими рецепторами.


за формою подання:

Текстова - передана як символів, призначених позначати лексеми мови;

Числова - як цифр і знаків, що позначають математичні дії;

Графічна - як зображень, предметів, графіків;

Звукова – усна або у вигляді запису передача лексем мови аудіальним шляхом.


за призначенням:

Масова - містить тривіальні відомості та оперує набором понять, зрозумілим більшій частині соціуму;

Спеціальна - містить специфічний набір понять, під час використання відбувається передача відомостей, які можуть бути не зрозумілі основній масі соціуму, але необхідні і зрозумілі в рамках вузької соціальної групи, де використовується дана інформація;

Секретна - передана вузькому колу осіб та по закритих (захищених) каналах;

Особиста (приватна) - набір відомостей про будь-яку особистість, визначальний соціальне становище і типи соціальних взаємодій усередині популяції.


за значенням:

Актуальна – інформація цінна в даний момент часу;

Достовірна – інформація, отримана без спотворень;

Зрозуміла - інформація, виражена мовою зрозумілою тому, кому вона призначена;

Повна - інформація, достатня до ухвалення правильного рішення чи розуміння;

Корисна - корисність інформації визначається суб'єктом, який отримав інформацію залежно від обсягу можливостей її використання.


Значення інформації у різних галузях знань

Теоретично інформації нашого часу розробляють багато систем, методів, підходів, ідей. Проте вчені вважають, що до сучасних напрямів теорії інформації додадуться нові, з'являться нові ідеї. Як доказ правильності своїх припущень вони наводять «живий», що розвивається характер науки, вказують на те, що теорія інформації напрочуд швидко і міцно впроваджується в різні галузі людського знання. Теорія інформації проникла у фізику, хімію, біологію, медицину, філософію, лінгвістику, педагогіку, економіку, логіку, технічні науки, естетику. За визнанням самих фахівців, вчення про інформацію, що виникло з потреб теорії зв'язку та кібернетики, переступило їх рамки. І тепер, мабуть, ми маємо право говорити про інформацію як наукове поняття, що дає в руки дослідників теоретико - інформаційний метод, за допомогою якого можна проникнути в багато наук про живу і неживу природу, про суспільство, що дозволить не тільки поглянути на всі проблеми з новою сторони, але й побачити ще небачене. Ось чому термін «інформація» отримав у наш час стала вельми поширеною, ставши частиною таких понять, як інформаційна система, інформаційна культура, навіть інформаційна етика.


Багато наукових дисциплін використовують теорію інформації, щоб підкреслити новий напрямок у старих науках. Так з'явилися, наприклад, інформаційна географія, інформаційна економіка, інформаційне право. Але надзвичайно велике значення набув термін «інформація» у зв'язку з розвитком новітньої комп'ютерної техніки, автоматизацією розумової праці, розвитком нових засобів зв'язку та обробки інформації та особливо з виникненням інформатики. Однією з найважливіших завдань теорії інформації є вивчення природи та властивостей інформації, створення методів її обробки, зокрема перетворення найрізноманітнішої сучасної інформації в програми для ЕОМ, за допомогою яких відбувається автоматизація розумової роботи – своєрідне посилення інтелекту, а отже, розвиток інтелектуальних ресурсів суспільства.


Слово «інформація» походить від латинського слова informatio, що у перекладі означає зведення, роз'яснення, ознайомлення. Поняття «інформація» є базовим у курсі інформатики, проте неможливо дати його визначення через інші, простіші поняття. Поняття «інформація» використовується в різних науках, при цьому в кожній науці поняття «інформація» пов'язане з різними системами понять. Інформація в біології: Біологія вивчає живу природу та поняття «інформація» пов'язується з доцільною поведінкою живих організмів. У живих організмах інформація передається та зберігається за допомогою об'єктів різної фізичної природи (стан ДНК), які розглядаються як знаки біологічних алфавітів. Генетична інформація передається у спадок і зберігається у всіх клітинах живих організмів. Філосівський підхід: Інформація - це взаємодія, відображення, пізнання. Кібернетичний підхід: Інформація - це характеристики керуючого сигналу, що передається по лінії зв'язку.

Роль інформації у філософії

Традиціоналізм суб'єктивного постійно домінував у ранніх визначеннях інформації, як категорії, поняття, властивості матеріального світу. Інформація існує поза нашої свідомості, і може відбито у сприйнятті лише як результат взаємодії: відбиття, читання, отримання як сигналу, стимулу. Інформація не є матеріальною, як і всі властивості матерії. Інформація стоїть у ряду: матерія, простір, час, системність, функція, та ін. Інформація - властивість матерії і відбиває її властивості (стан чи здатність взаємодії) і кількість (захід) шляхом взаємодії.


З матеріального погляду інформація - це порядок прямування об'єктів матеріального світу. Наприклад, порядок проходження літер на аркуші паперу за певними правилами є письмовою інформацією. Порядок проходження різнокольорових точок на аркуші паперу за певними правилами є графічною інформацією. Порядок проходження музичних нот є музичною інформацією. Порядок проходження генів у ДНК є спадковою інформацією. Порядок прямування бітів в ЕОМ є комп'ютерною інформацією тощо. і т.п. Для здійснення інформаційного обміну потрібна наявність необхідних та достатніх умов.

Необхідні умови:

Наявність щонайменше двох різних об'єктів матеріального чи нематеріального світу;

Наявність у об'єктів загальної властивості, що дозволяє ідентифікувати об'єкти як носій інформації;

Наявність в об'єктів специфічної якості, що дозволяє розрізняти об'єкти друг від друга;

Наявність якості простору, що дозволяє визначити порядок прямування об'єктів. Наприклад, розташування письмової інформації на папері - це специфічна властивість паперу, що дозволяє розташовувати букви зліва направо та зверху донизу.


Достатня умова одна: наявність суб'єкта, здатного розпізнавати інформацію. Це людина та людське суспільство, товариства тварин, роботів тощо. Інформаційне повідомлення будується шляхом вибору з базису копій об'єктів та розташування цих об'єктів у просторі у визначеному порядку. Довжина інформаційного повідомлення визначається як кількість копій об'єктів базису та завжди виражається цілим числом. Необхідно розрізняти довжину інформаційного повідомлення, яке завжди вимірюється цілим числом, та кількість знань, що міститься в інформаційному повідомленні, яке вимірюється у невідомій одиниці виміру. З математичної погляду інформація - це послідовність цілих чисел, які записані у вектор. Числа – це номер об'єкта у базисі інформації. Вектор називається інваріантом інформації, оскільки він залежить від фізичної природи об'єктів базису. Те саме інформаційне повідомлення може бути виражене літерами, словами, пропозиціями, файлами, картинками, нотами, піснями, відеокліпами, будь-якою комбінацією всіх раніше названих.

Роль інформації у фізиці

Інформація – це відомості про навколишній світ (об'єкт, процес, явища, подію), які є об'єктом перетворення (включаючи зберігання, передачу і т.д.) і використовуються для вироблення поведінки, для прийняття рішення, для управління або для навчання.


Характерними рисами інформації є такі:

Це найбільш важливий ресурс сучасного виробництва: він знижує потребу у землі, праці, капіталі, зменшує витрати сировини та енергії. Так, наприклад, маючи вміння архівувати свої файли (тобто маючи таку інформацію), можна не витрачатися на покупку нових дискет;

Інформація викликає життя нові виробництва. Наприклад, винахід лазерного променя стало причиною виникнення та розвитку виробництва лазерних (оптичних) дисків;

Інформація є товаром, причому продавець інформації її втрачає після продажу. Так, якщо студент повідомить свого товариша відомості про розклад занять протягом семестру, він ці дані не втратить для себе;

Інформація надає додаткової цінності іншим ресурсам, зокрема, трудовим. Справді, працівник із вищою освітою цінується більше, ніж із середньою.


Як випливає з визначення, з інформацією завжди пов'язують три поняття:

Джерело інформації – той елемент навколишнього світу (об'єкт, процес, явище, подія), відомості про які є об'єктом перетворення. Так, джерелом інформації, яку на даний момент отримує читач цього навчального посібника, є інформатика як сфера людської діяльності;

Споживач інформації – той елемент навколишнього світу, який використовує інформацію (для вироблення поведінки, ухвалення рішення, управління чи навчання). Споживач цієї інформації – сам читач;

Сигнал – матеріальний носій, який фіксує інформацію перенесення її від джерела до споживача. У разі сигнал носить електронний характер. Якщо ж студент візьме цей посібник у бібліотеці, то та сама інформація матиме паперовий носій. Будучи прочитаною та запам'ятованою студентом, інформація придбає ще один носій – біологічний, коли вона “записується” на згадку учня.


Сигнал є найважливішим елементом у цій схемі. Форми його подання, а також кількісні та якісні характеристики інформації, що міститься в ньому, важливі для споживача інформації, розглядаються далі в даному розділі підручника. Основні характеристики комп'ютера як основного інструмента, що виконує відображення джерела інформації сигнал (зв'язок 1 малюнку) і “доведення” сигналу до споживача інформації (зв'язок 2 малюнку), наводяться у частині Комп'ютер. Структура процедур, що реалізують зв'язки 1 та 2 та складових інформаційний процес, є предметом розгляду в частині Інформаційний процес.

Об'єкти матеріального світу перебувають у стані безперервної зміни, що характеризується обміном енергією об'єкта із довкіллям. Зміна стану одного об'єкта завжди призводить до зміни стану, деякого іншого об'єкта навколишнього середовища. Це явище, незалежно від того, як, які саме стани та яких саме об'єктів змінилися, може розглядатися як передача сигналу від одного об'єкта іншому. Зміна стану об'єкта під час передачі йому сигналу, називається реєстрацією сигналу.


Сигнал або послідовність сигналів утворюють повідомлення, яке може бути сприйняте одержувачем у тому чи іншому вигляді, а також у тому чи іншому обсязі. Інформація у фізиці є термін, який якісно узагальнює поняття «сигнал» та «повідомлення». Якщо сигнали та повідомлення можна обчислювати кількісно, ​​то можна сказати, що сигнали та повідомлення є одиницями вимірювання обсягу інформації. Повідомлення (сигнал) різними системами інтерпретується по-своєму. Наприклад, послідовно довгий і два короткі звукові сигнали в термінології абетки Морзе - це буква де (або D), в термінології БІОС від фірми AWARD - несправність відеокарти.

Роль інформації з математики

У математиці теорія інформації (математична теорія зв'язку) - розділ прикладної математики, що визначає поняття інформації, її властивості та встановлює граничні співвідношення для систем передачі даних. Основні розділи теорії інформації - кодування джерела (що стискає кодування) та канальне (перешкодостійке) кодування. Математика є більшою ніж науковою дисципліною. Вона створює єдину мову усієї Науки.


Предметом досліджень математики є абстрактні об'єкти: число, функція, вектор, безліч та інші. У цьому більшість їх вводиться аксіоматично (аксіома), тобто. без будь-якого зв'язку з іншими поняттями та без будь-якого визначення.

Інформація не входить до предметів дослідження математики. Проте слово «інформація» вживається в математичних термінах – власна інформація та взаємна інформація, що належать до абстрактної (математичної) частини теорії інформації. Проте, у математичної теорії поняття «інформація» пов'язані з виключно абстрактними об'єктами – випадковими величинами, тоді як і сучасної теорії інформації це поняття розглядається значно ширше – як властивість матеріальних об'єктів. Зв'язок між двома однаковими термінами безсумнівна. Саме математичний апарат випадкових чисел використав автор теорії інформації Клод Шеннон. Сам він має на увазі під терміном «інформація» щось фундаментальне (нередуковане). Теоретично Шеннона інтуїтивно вважається, що інформація має зміст. Інформація зменшує загальну невизначеність та інформаційну ентропію. Кількість інформації доступна виміру. Однак він застерігає дослідників від механічного перенесення понять з його теорії до інших галузей науки.


"Пошук шляхів застосування теорії інформації в інших галузях науки не зводиться до тривіального перенесення термінів з однієї галузі науки в іншу. Цей пошук здійснюється у тривалому процесі висування нових гіпотез та їх експериментальній перевірці." К. Шеннон.

Роль інформації у кібернетиці

Засновник кібернетики Нор берт Вінер говорив про інформацію так:

Інформація - це не матерія і не енергія, інформація - це інформація". Але основне визначення інформації, яке він дав у кількох своїх книгах, таке: інформація - це позначення змісту, отриманого нами із зовнішнього світу, у процесі пристосування до нього нас та наших почуттів.

Інформація - це основне поняття кібернетики, так само економічна І. - основне поняття економічної кібернетики.


Визначень цього терміна багато, вони складні та суперечливі. Причина, очевидно, у тому, що І. як явище займаються різні науки, і кібернетика лише наймолодша з них. І. - предмет вивчення таких наук, як наука про управління, математична статистика, генетика, теорія засобів масової І. (друк, радіо, телебачення), інформатика, що займається проблемами науково-технічної І., і т. д. Нарешті останнім часом великий інтерес до проблем І. виявляють філософи: вони схильні розглядати І. як одну з основних універсальних властивостей матерії, пов'язану з поняттям відображення. При всіх трактуваннях поняття І. вона передбачає існування двох об'єктів: джерела І. та споживача (одержувача) І. Передача І. від одного до іншого відбувається за допомогою сигналів, які, взагалі кажучи, можуть не мати жодного фізичного зв'язку з її змістом: ця зв'язок визначається угодою. Напр., удар у вічовий дзвін означав, що треба збиратися на площу, але тим, хто не знав про цей порядок, він не повідомляв жодної І.І.


У ситуації з вічовим дзвоном людина, яка бере участь у угоді про сенс сигналу, знає, що на даний момент можуть бути дві альтернативи: вічові збори відбудуться чи не відбудуться. Або, висловлюючись мовою теорії І., невизначена подія (віче) має два результати. Ухвалений сигнал призводить до зменшення невизначеності: людина тепер знає, що подія (віче) має лише один результат - вона відбудеться. Однак, якщо заздалегідь було відомо, що віче відбудеться о цій годині, дзвін нічого нового не повідомив. Звідси випливає, що менше ймовірно (тобто більш несподівано) повідомлення, тим більше І. воно містить, і навпаки, що більше ймовірність результату до скоєння події, тим менше І. містить сигнал. Приблизно такі міркування привели у 40-х роках. XX ст. до виникнення статистичної, чи “класичної”, теорії І., яка визначає поняття І. через міру зменшення невизначеності знання про вчинення будь-якої події (такий захід було названо ентропією). Біля витоків цієї науки стояли Н. Вінер, К. Шеннон та радянські вчені А. Н. Колмогоров, В. А. Котельников та ін. Їм вдалося вивести математичні закономірності вимірювання кількості І., а звідси і такі поняття, як пропускна здатність каналу І ., ємність запам'ятовують І. пристроїв і т. п., що послужило потужним стимулом розвитку кібернетики як науки і електронно-обчислювальної техніки як практичного застосування досягнень кібернетики.


Щодо визначення цінності, корисності І. для одержувача, то тут ще багато невирішеного, неясного. Якщо виходити із потреб економічного управління і, отже, економічної кібернетики, то І. можна визначити як усі ті відомості, знання, повідомлення, які допомагають вирішити те чи інше завдання управління (тобто зменшити невизначеність її результатів). Тоді відкриваються і деякі можливості для оцінки І.: вона тим корисніша, цінніша, чим швидше або з меншими витратами призводить до вирішення завдання. Поняття І. близьке до поняття дані. Проте з-поміж них є відмінність: дані - це сигнали, із яких треба витягти І. Обробка даних є процес приведення їх до придатного при цьому виду.


Процес їх передачі від джерела до споживача та сприйняття як І. може розглядатися як проходження трьох фільтрів:

Фізичного, або статистичного (чисто кількісне обмеження щодо пропускної спроможності каналу, незалежно від змісту даних, тобто з погляду синтактики);

Семантичного (відбір тих даних, які можуть бути зрозумілі одержувачем, тобто відповідають тезаурус його знань);

Прагматичного (відбір серед зрозумілих відомостей тих, які корисні для вирішення цього завдання).

Це добре показано на схемі, взятій із книги Є. Г. Ясіна про економічну інформацію. Відповідно виділяються три аспекти вивчення проблем І. – синтаксичний, семантичний та прагматичний.


За змістом І. підрозділяється на суспільно-політичну, соціально-економічну (у тому числі економічну І.), науково-технічну і т. д. Загалом класифікацій І. багато, вони будуються з різних підстав. Як правило, через близькість понять так само будуються і класифікації даних. Напр., І. підрозділяється на статичну (постійну) та динамічну (змінну), і дані при цьому - на постійні та змінні. Інше розподіл - первинна, похідна, вихідна І. (так само класифікуються дані). Третій поділ - І. керуюча та інформаційна. Четверте - надмірна, корисна та хибна. П'яте - повна (суцільна) та вибіркова. Ця ідея Вінера дає пряме вказівку на об'єктивність інформації, тобто. її існування у природі незалежно від свідомості (сприйняття) людини.

Об'єктивну інформацію сучасна кібернетика визначає як об'єктивне властивість матеріальних об'єктів і явищ породжувати різноманіття станів, які у вигляді фундаментальних взаємодій матерії передаються від одного об'єкта (процесу) іншому, і відбиваються у його структурі. Матеріальна система в кібернетиці сприймається як безліч об'єктів, які власними силами можуть у різних станах, але стан кожного їх визначається станами інших об'єктів системи.

У природі безліч станів системи є інформацією, самі стани є первинний код, або код джерела. Таким чином кожна матеріальна система є джерелом інформації. Суб'єктивну (семантичну) інформацію кібернетика визначає як зміст чи зміст повідомлення.

Роль інформації в інформатиці

Предметом вивчення науки є саме дані: методи їх створення, зберігання, обробки та передачі. Контент (також: "наповнення" (в контексті), "наповнення сайту") - термін, що означає всі види інформації (як текстової, так і мультимедійної - зображення, аудіо, відео), що становить наповнення (візуалізоване, для відвідувача, вміст) веб -сайту. Застосовується відділення поняття інформації, що становить внутрішню структуру сторінки/сайту (код), від тієї, що у результаті виведено на экран.

Слово «інформація» походить від латинського слова informatio, що у перекладі означає зведення, роз'яснення, ознайомлення. Поняття «інформація» є базовим у курсі інформатики, проте неможливо дати його визначення через інші, простіші поняття.


Можна виділити такі підходи до визначення інформації:

Традиційний (звичайний) - використовується в інформатиці: Інформація - це відомості, знання, повідомлення про стан справ, які людина сприймає з навколишнього світу за допомогою органів чуття (зір, слуху, смаку, нюху, дотику).

Імовірнісний - використовується в теорії про інформацію: Інформація - це відомості про об'єкти та явища навколишнього середовища, їх параметри, властивості та стан, які зменшують наявний про них ступінь невизначеності та неповноти знань.


Інформація зберігається, передається та обробляється у символьній (знаковій) формі. Одна й та інформація може бути представлена ​​в різній формі:

Знаковий письмовій, що з різних знаків серед яких виділяють символьну як тексту, чисел, спец. символів; графічну; табличну тощо;

Види жестів чи сигналів;

усній словесній формі (розмова).


Подання інформації здійснюється за допомогою мов як знакових систем, що будуються на основі певного алфавіту та мають правила для виконання операцій над знаками. Мова - певна знакова система подання інформації. Існують:

Природні мови – розмовні мови в усній та письмовій формах. У деяких випадках розмовну мову можуть замінити мову міміки та жестів, мову спеціальних знаків (наприклад, дорожніх);

Формальні мови – спеціальні мови для різних галузей людської діяльності, які характеризуються жорстко зафіксованим алфавітом, суворішими правилами граматики та синтаксису. Це мова музики (ноти), мова математики (цифри, математичні знаки), системи числення, мови програмування тощо. В основі будь-якої мови лежить алфавіт – набір символів/символів. Повне число символів алфавіту називається потужністю алфавіту.


Носії інформації – середовище або фізичне тіло для передачі, зберігання та відтворення інформації. (Це електричні, світлові, теплові, звукові, радіо сигнали, магнітні та лазерні диски, друковані видання, фотографії тощо)

Інформаційні процеси - це процеси, пов'язані з отриманням, зберіганням, обробкою та передачею інформації (тобто дії, що виконуються з інформацією). Тобто. це процеси, у яких змінюється зміст інформації чи форма її представлення.

Для забезпечення інформаційного процесу необхідне джерело інформації, канал зв'язку та споживач інформації. Джерело передає (надсилає) інформацію, а приймач її отримує (сприймає). Інформація, що передається, досягає від джерела до приймача за допомогою сигналу (коду). Зміна сигналу дає змогу отримати інформацію.

Будучи об'єктом перетворення та використання, інформація характеризується такими властивостями:

Синтаксис – властивість, що визначає спосіб представлення інформації на носії (у сигналі). Так, ця інформація представлена ​​на електронному носії за допомогою певного шрифту. Тут же можна розглядати такі параметри подання інформації, як стиль і колір шрифту, його розміри, інтервал між рядками і т.д. Виділення необхідних властивостей як синтаксичних якостей, зрозуміло, визначається передбачуваним методом перетворення. Наприклад, для людини, яка погано бачить, істотним є розмір і колір шрифту. Якщо передбачається вводити текст у комп'ютер через сканер, важливий формат паперу;


Семантика – властивість, що визначає зміст інформації як відповідність сигналу до реального світу. Так, семантика сигналу “інформатика” полягає у цьому визначенні. Семантика може розглядатися як деяка угода, відома споживачеві інформації, про те, що означає кожен сигнал (так зване правило інтерпретації). Наприклад, саме семантику сигналів вивчає автомобіліст-початківець, що штудує правила дорожнього руху, пізнаючи дорожні знаки (у цьому випадку сигналами виступають самі знаки). Семантику слів (сигналів) пізнає той, хто навчається якійсь іноземній мові. Можна сміливо сказати, що значення навчання інформатиці полягає у вивченні семантики різних сигналів – суть ключових понять цієї дисципліни;


Прагматика - властивість, що визначає вплив інформації на поведінку споживача. Так прагматика інформації, одержуваної читачем цього навчального посібника, полягає, щонайменше, в успішному складання іспиту з інформатики. Хочеться вірити, що цим прагматика даної праці не обмежиться і він послужить для подальшого навчання та професійної діяльності читача.

Слід зазначити, що різні синтаксису сигнали можуть мати однакову семантику. Наприклад, сигнали "ЕОМ" та "комп'ютер" означають електронний пристрій для перетворення інформації. У цьому випадку зазвичай говорять про синонімію сигналів. З іншого боку, один сигнал (тобто інформація з одним синтаксичним властивістю) може мати різну прагматику для споживачів і різну семантику. Так, дорожній знак, відомий під назвою "цегла" і має певну семантику ("в'їзд заборонений"), означає для автомобіліста заборона на в'їзд, а на пішохода ніяк не впливає. У той же час, сигнал “ключ” може мати різну семантику: скрипковий ключ, джерельний ключ, ключ для відкриття замка, ключ, що використовується в інформатиці для кодування сигналу з метою захисту від несанкціонованого доступу (у цьому випадку говорять про омонімію сигналу). Є сигнали – антоніми, що мають протилежну семантику. Наприклад, "холодний" і "гарячий", "швидкий" та "повільний" і т.д.


Предметом вивчення науки інформатика є саме дані: методи їх створення, зберігання, обробки та передачі. А сама інформація, зафіксована в даних, її змістовний зміст цікаві користувачам інформаційних систем, які є фахівцями різних наук та галузей діяльності: медика цікавить медична інформація, геолога – геологічна, підприємця – комерційна тощо. (у тому числі фахівця з інформатики цікавить інформація щодо роботи з даними).

Семіотика - наука про інформацію

Інформацію не можна уявити без її отримання, обробки, передачі тощо, тобто поза рамками обміну інформацією. Усі акти інформаційного обміну здійснюються у вигляді символів чи знаків, з допомогою яких одна система впливає іншу. Тому основною нayкою, що вивчає інформацію, є семіотика - наука про знаки та знакові системи в природі та суспільстві (теорія знаків). У кожному акті інформаційного обміну можна виявити три його «учасники», три елементи: знак, об'єкт, який він позначає, та одержувача (користувача) знака.


Залежно від того, відносини між якими елементами розглядаються, семіотику поділяють на три розділи: синтактику, семантику та прагматику. Синтактика вивчає знаки та стосунки між ними. При цьому вона абстрагується від змісту знака та його практичного значення для одержувача. Семантика вивчає відносини між знаками та позначаються ними об'єктами, відволікаючись при цьому від одержувача знаків та цінності останніх: для нього. Зрозуміло, що вивчення закономірностей смислового відображення об'єктів у знаках неможливе без урахування та використання загальних закономірностей побудови будь-яких знакових систем, що вивчаються синтактикою. Прагматика вивчає відносини між знаками та їхніми користувачами. В рамках прагматики вивчаються всі фактори, що відрізняють один акт інформаційного обміну від іншого, всі питання практичних результатів використання інформації та цінності для одержувача.


При цьому неминуче зачіпаються багато аспектів відносин знаків між собою і з об'єктами, що ними позначаються. Таким чином, три розділи семіотики відповідають трьом рівням абстрагування (відволікання) від особливостей конкретних актів обміну інформацією. Вивчення інформації у всьому її різноманітті відповідає прагматичному рівню. Відволікаючись від одержувача інформації, виключаючи його з розгляду, ми переходимо до її вивчення на семантичному рівні. З відволіканням змісту знаків аналіз інформації перекладається рівень синтактики. Таке взаємопроникнення основних розділів семіотики, пов'язане з різними рівнями абстрагування, можна подати за допомогою схеми «Три розділи семіотики та їх взаємозв'язок». Вимірювання інформації здійснюється відповідно так само у трьох аспектах: синтактичному, семантичному та прагматичному. Потреба такому різному вимірі інформації, як буде показано нижче, диктується практикою проектування та організації роботи інформаційних систем. Розглянемо типову виробничу ситуацію.


Наприкінці зміни планувальник ділянки готує дані виконання графіка виробництва. Ці дані надходять до інформаційно-обчислювального центру (ІОЦ) підприємства, де обробляються, і у вигляді зведень про стан виробництва на поточний момент видаються керівникам. Начальник цеху на підставі отриманих даних приймає рішення про зміну плану виробництва на наступний плановий період або вживання будь-яких інших організаційних заходів. Очевидно, що для начальника цеху кількість інформації, що містила зведення, залежить від величини економічного афекту, отриманого від її використання при прийнятті рішень, від того, наскільки корисними були отримані відомості. Для планувальника ділянки кількість інформації в тому самому повідомленні визначається точністю відповідності його фактичному стану справ на ділянці та ступенем несподіванки фактів, що повідомляються. Чим вони несподіваніші, тим швидше потрібно повідомити про них керівництву, тим більше інформації в цьому повідомленні. Для працівників ІОЦ першорядне значення матиме кількість знаків, довжина повідомлення, що несе інформацію, оскільки саме вона визначає час завантаження обчислювальної техніки та каналів зв'язку. При цьому ні корисність інформації, ні кількісна міра смислової цінності інформації їх практично не цікавить.


Природно, що організуючи систему управління виробництвом, будуючи моделі вибору рішення, ми як міра інформативності повідомлень використовуватимемо корисність інформації. При побудові системи обліку та звітності, що забезпечує керівництво даними про перебіг виробничого процесу за міру кількості інформації, слід приймати новизну отриманих відомостей. Організація процедур механічної переробки інформації вимагає вимірювання обсягу повідомлень у вигляді кількості оброблюваних знаків. Три таких суттєво різних підходів до вимірювання інформації не суперечать і не виключають один одного. Навпаки, вимірюючи інформацію в різних шкалах, вони дозволяють повніше та всебічно оцінити інформативність кожного повідомлення та ефективніше організувати систему управління виробництвом. За влучним виразом проф. Н.Є. Кобринського, коли йдеться про раціональну організацію потоків інформації, кількість, новизна, корисність інформації виявляються між собою так само пов'язаними, як кількість, якість та вартість продукції у виробництві.

Інформація у матеріальному світі

Інформація - одне із загальних понять, пов'язаних з матерією. Інформація існує у будь-якому матеріальному об'єкті як різноманіття його станів і передається від об'єкта до об'єкту у процесі взаємодії. Існування інформації як об'єктивної властивості матерії логічно випливає з відомих фундаментальних властивостей матерії – структурності, безперервної зміни (руху) та взаємодії матеріальних об'єктів.


Структурність матерії проявляється як внутрішня розчленованість цілісності, закономірний порядок зв'язку елементів у складі цілого. Інакше кажучи, будь-який матеріальний об'єкт, від субатомної частки Мета всесвіту (Великий вибух) загалом, є систему взаємозалежних підсистем. Внаслідок безперервного руху, що розуміється у широкому значенні як переміщення у просторі та розвиток у часі, матеріальні об'єкти змінюють свої стани. Стан об'єктів змінюється і за взаємодії коїться з іншими об'єктами. Безліч станів матеріальної системи та її підсистем представляє інформацію про систему.


Строго кажучи, через невизначеність, нескінченність, властивості структурності, кількість об'єктивної інформації в будь-якому матеріальному об'єкті нескінченна. Ця інформація називається повною. Однак можна виділяти структурні рівні з кінцевими множинами станів. Інформація, яка існує на структурному рівні з кінцевим числом станів, називається приватною. Для приватної інформації є сенс поняття кількості інформації.

З наведеного уявлення логічно і випливає вибір одиниці виміру кількості інформації. Уявімо систему, яка може перебувати всього в двох рівноймовірних станах. Надамо одному з них код «1», а іншому - «0». Це мінімальна кількість інформації, яку може містити система. Воно і є одиницею виміру інформації і називається біт. Існують й інші, складніше визначальніші способи та одиниці вимірювання кількості інформації.


Залежно від матеріальної форми носія, інформація буває двох основних видів – аналогова та дискретна. Аналогова інформація змінюється у часі безперервно і набуває значення континууму значень. Дискретна інформація змінюється в деякі моменти часу і набуває значень з деякої кількості значень. Будь-який матеріальний об'єкт чи процес є первинним джерелом інформації. Усі можливі його стани становлять код джерела інформації. Миттєве значення станів представляється як символ (літера) цього коду. Щоб інформація могла передаватися від одного об'єкта іншому як до приймача, необхідно, щоб був якийсь проміжний матеріальний носій, що взаємодіє з джерелом. Такими переносниками в природі, як правило, є процеси хвильової структури, що швидко поширюються - космічні, гамма і рентгенівські випромінювання, електромагнітні і звукові хвилі, потенціали (а може бути і ще не відкриті хвилі) гравітаційного поля. При взаємодії електромагнітного випромінювання з об'єктом внаслідок поглинання чи відображення змінюється спектр, тобто. змінюються інтенсивності деяких довжин хвиль. Змінюються при взаємодії з об'єктами та гармонікою звукових коливань. Інформація передається і при механічній взаємодії, проте механічна взаємодія, як правило, призводить до більших змін структури об'єктів (аж до їх руйнування), і інформація сильно спотворюється. Спотворення інформації при її передачі називається дезінформація.


Перенесення інформації джерела на структуру носія називається кодуванням. При цьому відбувається перетворення коду джерела на код носія. Носій з перенесеним нею кодом джерела як коду носія називається сигналом. Приймач сигналу має свій набір можливих станів, який називається кодом приймача. Сигнал, взаємодіючи з об'єктом-приймачем, змінює його стан. Процес перетворення коду сигналу в код приймача називається декодуванням. Передача інформації від джерела приймача можна розглядати як інформаційна взаємодія. Інформаційна взаємодія кардинально відрізняється з інших взаємодій. При всіх інших взаємодіях матеріальних об'єктів відбувається обмін речовиною та (або) енергією. При цьому один з об'єктів втрачає речовину чи енергію, а інший отримує їх. Ця властивість взаємодій називається симетричністю. При інформаційному взаємодії приймач отримує інформацію, а джерело втрачає її. Об'єктивна інформація сама по собі не матеріальна, вона є властивістю матерії, як, наприклад, структурність, рух, і існує на матеріальних носіях у вигляді своїх кодів.

Інформація у живій природі

Жива природа складна та різноманітна. Джерелами та приймачами інформації в ній є живі організми та їх клітини. Організм має низку властивостей, що відрізняють його від неживих матеріальних об'єктів.


Основні:

Безперервний обмін речовиною, енергією та інформацією з довкіллям;

Подразливість, здатність організму сприймати та переробляти інформацію про зміни навколишнього середовища та внутрішнього середовища організму;

Збудливість, здатність реагувати на дію подразників;

Самоорганізація, що проявляється як зміни організму для адаптації до умов довкілля.


Організм, що розглядається як система, має ієрархічну структуру. Ця структура щодо самого організму поділяється на внутрішні рівні: молекулярний, клітинний, рівень органів та, нарешті, власне організм. Однак організм взаємодіє і над організмовими живими системами, рівнями яких є популяція, екосистема та вся жива природа загалом (біосфера). Між усіма цими рівнями циркулюють потоки не тільки речовини та енергії, але й інформації. Інформаційні взаємодії в живій природі відбуваються так само, як і в неживій. Разом з тим, жива природа у процесі еволюції створила широке розмаїття джерел, носіїв та приймачів інформації.


Реакція на впливи зовнішнього світу проявляється у всіх організмів, оскільки вона обумовлена ​​дратівливістю. У вищих організмів адаптація до зовнішнього середовища носить характер складної діяльності, яка ефективна лише за досить повної та своєчасної інформації про навколишнє середовище. Приймачами інформації із довкілля вони є органи почуттів, яких відносять зір, слух, нюх, смак, дотик і вестибулярний апарат. У внутрішній структурі організмів є численні внутрішні рецептори, пов'язані з нервовою системою. Нервова система складається з нейронів, відростки яких (аксони і дендрити) є аналогом каналів передачі інформації. Головними органами, що забезпечують зберігання та обробку інформації у хребетних, є спинний мозок та головний мозок. Відповідно до особливостей органів чуття інформацію, що сприймається організмом, можна класифікувати як візуальну, слухову, смакову, нюхову та тактильну.


Потрапляючи на сітківку людського ока, сигнал особливим чином збуджує її клітини. Нервові імпульси клітин через аксони передаються у мозок. Мозок запам'ятовує це відчуття у вигляді певної комбінації станів складових його нейронів. (Продовження прикладу – у секції "Інформація в людському суспільстві"). Накопичуючи інформацію, мозок створює у своїй структурі пов'язану інформаційну модель навколишнього світу. У живій природі організму - приймача інформації важливою характеристикою є її доступність. Кількість інформації, яку нервова система людини здатна подати в мозок під час читання текстів, становить приблизно 1 біт за 1/16 с.

Дослідження організмів утруднене їх складністю. Допустима для неживих об'єктів абстракція структури як математичної множини навряд чи допустима для живого організму, тому що для створення більш менш адекватної абстрактної моделі організму необхідно врахувати всі ієрархічні рівні його структури. Тому складно запровадити міру кількості інформації. Дуже складно визначаються зв'язки між компонентами структури. Якщо відомо, який орган є джерелом інформації, що є сигналом і що приймачем?


До появи обчислювальних машин біологія, що займається дослідженнями живих організмів, застосовувала лише якісні, тобто. описові моделі У якісній моделі зважити на інформаційні зв'язки між компонентами структури практично неможливо. Електронно-обчислювальна техніка дозволила застосувати в біологічних дослідженнях нові методи, зокрема метод машинного моделювання, що передбачає математичний опис відомих явищ і процесів, що відбуваються в організмі, додавання до них гіпотез про деякі невідомі процеси і розрахунок можливих варіантів поведінки організму. Отримані варіанти порівнюються з реальною поведінкою організму, що дозволяє визначити істинність чи хибність висунутих гіпотез. У таких моделях можна врахувати та інформаційну взаємодію. Надзвичайно складними є інформаційні процеси, які забезпечують існування життя. І хоча інтуїтивно зрозуміло, що ця властивість прямо пов'язана з формуванням, зберіганням та передачею повної інформації про структуру організму, абстрактний опис цього феномену уявлявся до певного часу неможливим. Тим не менш, інформаційні процеси, що забезпечують існування цієї властивості, частково розкрито завдяки розшифровці генетичного коду та прочитанню геномів різних організмів.

Інформація у суспільстві

Розвиток матерії у процесі руху спрямоване у бік ускладнення структури матеріальних об'єктів. Одна із найскладніших структур – людський мозок. Поки що це єдина відома нам структура, що має властивість, яку сама людина називає свідомістю. Говорячи про інформацію ми, як мислячі істоти, апріорно маємо на увазі, що інформація, крім її наявності у вигляді сигналів, що приймаються нами, має ще і якийсь сенс. Формуючи у своїй свідомості модель навколишнього світу як взаємопов'язану сукупність моделей його об'єктів і процесів, людина використовує саме смислові поняття, а чи не інформацію. Сенс - сутність будь-якого феномена, яка збігається з ним самим і пов'язує його з ширшим контекстом реальності. Саме слово прямо вказує, що зміст змісту інформації можуть формувати тільки мислячі приймачі інформації. У людському суспільстві вирішального значення набуває не сама інформація, а її смислове зміст.


Приклад (продовження). Зазнавши таке відчуття, людина надає об'єкту поняття – «помідор», яке стану поняття - «червоний колір». Крім того, його свідомість фіксує зв'язок: "помідор" - "червоного кольору". Це є сенс прийнятого сигналу. (Продовження прикладу: нижче у цій секції). Здатність мозку створювати смислові поняття та зв'язки між ними є основою свідомості. Свідомість можна розглядати як смислову модель навколишнього світу, що саморозвивається. Сенс це не інформація. Інформація існує лише на матеріальному носії. Свідомість людини вважається нематеріальною. Сенс існує у свідомості людини у вигляді слів, образів та відчуттів. Людина може вимовляти слова як вголос, а й «про себе». Він також «про себе» може створювати (або згадувати) образи та відчуття. Однак він може відновити інформацію, що відповідає цьому сенсу, вимовивши слова або написавши їх.

Приклад (продовження). Якщо слова «помідор» та «червоний колір» - сенс понять, то де тоді інформація? Інформація міститься у мозку у вигляді певних станів його нейронів. Вона міститься також у надрукованому тексті, що складається з цих слів, і при кодуванні літер трирозрядним двійковим кодом її кількість дорівнює 120 біт. Якщо вимовити слова вголос, інформації буде значно більше, але зміст залишиться тим самим. Найбільше інформації несе зоровий образ. Це відбивається навіть у народному фольклорі – "краще один раз побачити, ніж сто разів почути". Відновлена ​​таким чином інформація називається семантичною інформацією, оскільки вона кодує сенс деякої первинної інформації (семантика). Почувши (або побачивши) фразу, вимовлену (або написану) мовою, яку людина не знає, вона отримує інформацію, але не може визначити її зміст. Тому передачі сенсового змісту інформації необхідні деякі угоди між джерелом і приймачем про змістовому сигналів, тобто. слів. Такі угоди можуть бути досягнуті у процесі спілкування. Спілкування одна із найважливіших умов існування людського суспільства.

У сучасному світі інформація є одним з найважливіших ресурсів і, водночас, однією з рушійних сил розвитку людського суспільства. Інформаційні процеси, що відбуваються в матеріальному світі, живій природі та людському суспільстві вивчаються (або принаймні враховуються) усіма науковими дисциплінами від філософії до маркетингу. Зростаюча складність завдань наукових досліджень призвела до необхідності залучення до вирішення великих колективів вчених різних спеціальностей. Тому майже всі аналізовані нижче теорії є міждисциплінарними. Історично склалося так, що дослідженням безпосередньо інформації займаються дві комплексні галузі науки - кібернетика та інформатика.


Сучасна кібернетика - це мульти-дисциплінарна галузь науки, що досліджує надскладні системи, такі як:

Людське суспільство (соціальна кібернетика);

економіка (економічна кібернетика);

Живий організм (біологічна кібернетика);

Людський мозок та його функція – свідомість (штучний інтелект).


Інформатика, що сформувалася як наука в середині минулого століття, відокремилася від кібернетики та займається дослідженнями в галузі способів отримання, зберігання, передачі та обробки семантичної інформації. Обидві ці галузі використовують кілька основних наукових теорій. До них відносяться теорія інформації, та її розділи - теорія кодування, теорія алгоритмів та теорія автоматів. Дослідження смислового змісту інформації ґрунтуються на комплексі наукових теорій під загальною назвою семіотика. Теорія інформації - комплексна, в основному математична теорія, що включає опис та оцінки методів вилучення, передачі, зберігання та класифікації інформації. Розглядає носії інформації як елементи абстрактної (математичної) множини, а взаємодії між носіями як спосіб розташування елементів у цій множині. Такий підхід дає можливість формально описати код інформації, тобто визначити абстрактний код та дослідити його математичними методами. Для цих досліджень застосовує методи теорії ймовірностей, математичної статистики, лінійної алгебри, теорії ігор та інших математичних теорій.


Основи цієї теорії заклав американський учений Еге. Хартлі в 1928 р., який визначив міру кількості інформації деяких завдань зв'язку. Пізніше теорія була значно розвинена американським ученим До. Шенноном, російськими вченими А.Н. Колмогоровим, В.М Глушковим та ін. Сучасна теорія інформації включає в себе як розділи теорію кодування, теорію алгоритмів, теорію цифрових автоматів (див. нижче) та деякі інші. вченим М. Мазуром.C поняттям алгоритму знайомий будь-яка людина, навіть не підозрюючи про це. Ось приклад неформального алгоритму: «Помідори нарізати кружальцями чи часточками. Покласти в них нашатковану цибулю, полити олією, потім посипати дрібно нарізаним стручковим перцем, перемішати. Перед вживанням посипати сіллю, укласти салатник і прикрасити зеленню петрушки». (Салат з помідорів).


Перші в історії людства правила вирішення арифметичних завдань були розроблені одним із відомих вчених давнини Аль-Хорезмі в IX столітті нашої ери. На його честь формалізовані правила для досягнення будь-якої мети називають алгоритмами. Предметом теорії алгоритмів є знаходження методів побудови та оцінки ефективних (у тому числі й універсальних) обчислювальних та керуючих алгоритмів для обробки інформації. Для обгрунтування таких методів теорія алгоритмів використовує математичний апарат теорії інформації. Великий внесок у розвиток теорії алгоритмів зробили російські вчені А. Марков (Нормальний алгоритм Маркова) та А. Колмогоров.


Поняття автомата виникло теорії алгоритмів. Якщо існують деякі універсальні алгоритми розв'язання обчислювальних завдань, то повинні існувати і пристрої (нехай і абстрактні) для реалізації таких алгоритмів. Власне, абстрактна машина Тьюринга, що розглядається в теорії алгоритмів, є водночас і неформально певним автоматом. Теоретичне обґрунтування побудови таких пристроїв є предметом теорії автоматів. Теорія автоматів використовує апарат математичних теорій – алгебри, математичної логіки, комбінаторного аналізу, теорії графів, теорії ймовірностей та ін. керуючих систем. Семіотика - комплекс наукових теорій, що вивчають властивості знакових систем. Найбільш суттєві результати досягнуті у розділі семіотики – семантиці. Предметом досліджень семантики є змістове зміст інформації.


Знаковою системою вважається система конкретних чи абстрактних об'єктів (знаків, слів), з кожним у тому числі певним чином зіставлено деяке значення. Теоретично доведено, що таких зіставлень може бути два. Перший вид відповідності визначає безпосередньо матеріальний об'єкт, що означає це слово і називається денотат (або, у деяких роботах, – номінант). Другий вид відповідності визначає зміст знака (слова) і називається концептом. При цьому досліджуються такі властивості зіставлень як «сенс», «істинність», «визначність», «слідування», «інтерпретація» та ін. Для досліджень використовується апарат математичної логіки та математичної лінгвістики. Ідеї семантики, намічені ще Г. В. Ф де Соссюром в XIX столітті, сформулювали і розвинули Ч. Пірс (1839-1914), Ч. Морріс (р. 1901), Р. Карнап (1891-1970) та ін. Основним досягненням теорії є створення апарату семантичного аналізу, що дозволяє уявити зміст тексту природною мовою у вигляді запису деякою формалізованою семантичною (смисловою) мовою. Семантичний аналіз є основою для створення пристроїв (програм) машинного перекладу з однієї природної мови на іншу.

Зберігання інформації здійснюється з допомогою її перенесення деякі матеріальні носії. Семантична інформація, зафіксована на матеріальному носії для зберігання, називається документом. Зберігати інформацію людство навчилося дуже давно. У найдавніших формах зберігання інформації використовувалося розташування предметів - раковин та каміння на піску, вузликів на мотузці. Істотним розвитком цих методів стала писемність - графічне зображення знаків на камені, глині, папірусі, папері. Величезне значення у розвитку цього напряму мало винахід друкарства. За свою історію людство накопичило величезний обсяг інформації у бібліотеках, архівах, періодичних виданнях та інших письмових документах.


В даний час особливого значення набуло зберігання інформації у вигляді послідовностей двійкових символів. Для реалізації цих методів використовуються різноманітні пристрої. Вони є центральною ланкою систем зберігання інформації. Крім них у таких системах використовуються засоби пошуку інформації (пошукова система), засоби отримання довідок (інформаційно-довідкові системи) та засоби відображення інформації (пристрій виведення). Сформовані за призначенням інформації такі інформаційні системи утворюють бази даних, банки даних та база знань.

Передача семантичної інформації називається процес її просторового перенесення від джерела до одержувача (адресату). Передавати та отримувати інформацію людина навчилася навіть раніше, ніж зберігати її. Мова є способом передачі, який використовували наші далекі предки у безпосередньому контакті (розмові) – нею ми користуємось і зараз. Для передачі інформації на великі відстані необхідно використовувати значно складніші інформаційні процеси. Для здійснення такого процесу інформація повинна бути певним чином оформлена (представлена). Для представлення інформації використовуються різні знакові системи - набори заздалегідь обумовлених значеннєвих символів: предметів, картинок, написаних чи надрукованих слів природної мови. Подана з їх допомогою семантична інформація про якийсь об'єкт, явище або процес називається повідомленням.


Очевидно, що для передачі повідомлення на відстань інформація повинна бути перенесена на мобільний носій. Носії можуть переміщатися в просторі за допомогою транспортних засобів, як це відбувається з листами, що надсилаються поштою. Такий спосіб забезпечує повну достовірність передачі, оскільки адресат отримує оригінал повідомлення, проте вимагає значного часу передачі. З середини XIX століття набули поширення способи передачі інформації, що використовують природно поширюється носій інформації - електромагнітні коливання (електричні коливання, радіохвилі, світло). Реалізація цих способів вимагає:

Попереднього перенесення інформації, що міститься в повідомленні, носій - кодування;

Забезпечення передачі отриманого таким чином сигналу адресату спеціальним каналом зв'язку;

Зворотне перетворення коду сигналу на код повідомлення - декодування.

Використання електромагнітних носіїв робить доставку повідомлення адресату майже миттєвою, проте вимагає додаткових заходів щодо забезпечення якості (достовірності та точності) інформації, що передається, оскільки реальні канали зв'язку піддаються впливу природних і штучних перешкод. Пристрої, що реалізують процес передачі, утворюють системи зв'язку. Залежно від способу представлення інформації системи зв'язку можна поділяти на знакові (телеграф, телефакс), звукові (телефон), відео та комбіновані системи (телебачення). Найбільш розвиненою системою зв'язку нашого часу є Інтернет.

Обробка інформації

Оскільки інформація не матеріальна, її обробка полягає у різних перетвореннях. До процесів обробки можна віднести будь-які перенесення інформації з носія на інший носій. Інформація, що призначена для обробки, називається даними. Основним видом обробки первинної інформації, отриманої різними приладами, є перетворення на форму, що забезпечує її сприйняття органами почуттів людини. Так, фото космосу, отримані в рентгенівських променях, перетворюються на звичайні кольорові фотографії з використанням спеціальних перетворювачів спектра та фотоматеріалів. Прилади нічного бачення перетворюють зображення, одержуване в інфрачервоних (теплових) променях, зображення у видимому діапазоні. Для деяких завдань зв'язку та управління необхідно перетворення аналогової інформації. Для цього використовуються аналого-цифрові та цифро-аналогові перетворювачі сигналів.


Найважливішим видом обробки семантичної інформації є визначення змісту (змісту), що полягає у деякому повідомленні. На відміну від первинної семантична інформація немає статистичних характеристик, тобто кількісної міри - сенс чи є, чи його немає. А скільки його, якщо він є – встановити неможливо. Зміст, що міститься в повідомленні, описується штучною мовою, що відображає смислові зв'язки між словами вихідного тексту. Словник такої мови, що називається тезаурусом, знаходиться у приймачі повідомлення. Сенс слів та словосполучень повідомлення визначається шляхом їх віднесення до певних груп слів або словосполучень, зміст яких вже встановлено. Тезаурус, таким чином, дозволяє встановити зміст повідомлення і одночасно поповнюється новими смисловими поняттями. Описаний вид обробки інформації застосовується в інформаційно-пошукових системах та системах машинного перекладу.


Одним з поширених видів обробки інформації є рішення обчислювальних задач і завдань автоматичного управління за допомогою обчислювальних машин. Обробка інформації завжди проводиться з певною метою. Для її досягнення має бути відомий порядок дій над інформацією, що призводить до заданої мети. Такий порядок дій називається алгоритмом. Крім самого алгоритму необхідний деякий пристрій, що реалізує цей алгоритм. У наукових теоріях такий пристрій називається автоматом. Слід зазначити як найважливішу особливість інформації той факт, що через несиметричність інформаційної взаємодії при обробці інформації виникає нова інформація, а вихідна інформація не втрачається.

Аналогова та цифрова інформація

Звук це хвильові коливання в якомусь середовищі, наприклад, у повітрі. Коли людина говорить, коливання зв'язок горла перетворюються на хвильові коливання повітря. Якщо розглядати звук не як хвилю, а як коливання в одній точці, то ці коливання можна уявити, як тиск повітря, що змінюється в часі. За допомогою мікрофона можна вловити зміни тиску та перетворити їх на електричну напругу. Відбулося перетворення тиску повітря на коливання електричної напруги.


Таке перетворення може відбуватися за різними законами, найчастіше перетворення відбувається за лінійним законом. Наприклад, за таким:

U(t)=K(P(t)-P_0),

де U(t) – електрична напруга, P(t) – тиск повітря, P_0 – середній тиск повітря, а K – коефіцієнт перетворення.

І електрична напруга, і тиск повітря є безперервними функціями часу. Функції U(t) та P(t) є інформацією про коливання зв'язок горла. Ці функції безперервні і така інформація називається аналогової. Музика це окремий випадок звуку і її теж можна представити у вигляді якоїсь функції від часу. Це буде аналогова вистава музики. Але музику також записують у вигляді нот. Кожна нота має кратну тривалість заздалегідь заданої тривалості, і висоту (до, ре, мі, фа, сіль і т.д). Якщо ці дані перетворити на цифри, ми отримаємо цифрове представлення музики.


Людське мовлення, як і є окремим випадком звуку. Її теж можна уявити в аналоговому вигляді. Але як музику можна розбити на ноти, можна розбити на літери. Якщо кожній літері дати свій набір цифр, то ми отримаємо цифрове уявлення мови. Різниця між аналоговою інформацією та цифровою в тому, що аналогова інформація безперервна, а цифрова дискретна. Перетворення інформації з одного виду в інший залежно від роду перетворення називають по-різному просто "перетворення", наприклад, цифро-аналогове перетворення, або аналого-цифрове перетворення; складні перетворення називають "кодуванням", наприклад, дельта-кодування, ентропійне кодування; перетворення між такими характеристиками, як амплітуда, частота або фаза називають "модуляцією", наприклад, амплітудно-частотна модуляція, широтно-імпульсна модуляція.

Зазвичай аналогові перетворення досить прості і з ними легко справляються різні пристрої винайдені людиною. Магнітофон перетворює намагніченість на плівці на звук, диктофон перетворює звук на намагніченість на плівці, відеокамера перетворює світло на намагніченість на плівці, осцилограф перетворює електричну напругу або струм на зображення і т.д. Перетворення аналогової інформації на цифрову помітно складніше. Деякі перетворення машині здійснити не вдається або вдається насилу. Наприклад, перетворення мови в текст, або перетворення запису концерту в ноти, і навіть за своєю природою цифрове уявлення: текст на папері дуже важко машині перетворити в той же текст у пам'яті комп'ютера.

Навіщо тоді використовувати цифрове подання інформації, якщо воно так складно? Основне перевага цифрової інформації перед аналоговою це схибленість. Тобто в процесі копіювання інформації цифрова інформація копіюється так як є, її можна копіювати практично нескінченну кількість разів, аналогова інформація в процесі копіювання зашумляється, її якість погіршується. Зазвичай аналогову інформацію можна копіювати не більше трьох раз. погіршилася якість запису. Інформація на касеті зберігається у аналоговому вигляді. Музику у форматі mp3 Ви можете переписувати скільки завгодно, і якість музики від цього не погіршується. Інформація у файлі mp3 зберігається у цифровому вигляді.

Кількість інформації

Людина чи якийсь інший приймач інформації, отримавши порцію інформації, дозволяє деяку невизначеність. Візьмемо для прикладу все також дерево. Коли ми побачили дерево, ми дозволили низку невизначеностей. Ми дізналися висоту дерева, вид дерева, щільність листя, колір листя і, якщо це плодове дерево, ми побачили на ньому плоди, наскільки вони дозріли і т.п. До того як ми подивилися на дерево, ми цього не знали, після того як ми подивилися на дерево, ми дозволили невизначеність – отримали інформацію.


Якщо ми вийдемо на луг і подивимося на нього, то ми отримаємо інформацію іншого роду, наскільки луг великий, наскільки висока трава та якого кольору трава. Якщо на цей же самий луг вийде біолог, то він також зможе дізнатися: які сорти трав ростуть на лузі, якого типу цей луг, він побачить які квіти зацвіли, які тільки зацвітуть, чи придатний луг для випасу корів і т.п. Тобто, він отримає кількість інформації більше, ніж ми, оскільки в нього, перед тим як він подивився на луг, було більше запитань, чи біолог вирішить більшу кількість невизначеностей.

Чим більша невизначеність була дозволена у процесі отримання інформації, тим більше інформації ми отримали. Але це суб'єктивний захід кількості інформації, а нам хотілося б мати об'єктивний захід. Існує формула до розрахунку кількості інформації. Ми маємо деяку невизначеність, і у нас існує N-а кількість випадків вирішення невизначеності, і кожен випадок має деяку ймовірність дозволу, тоді кількість отриманої інформації можна розрахувати за такою формулою, яку запропонував нам Шеннон:

I = -(p_1 \log_(2)p_1 + p_2 \log_(2)p_2 + ... +p_N \log_(2)p_N), де

I – кількість інформації;

N – кількість наслідків;

p_1, p_2, ..., p_N- ймовірності результату.

Кількість інформації вимірюється в бітах – скорочення від англійських слів Binary digiT, що означає двійкова цифра.

Для рівноймовірних подій формулу можна спростити:

I = \ log_ (2) N, де

I – кількість інформації;

N – кількість наслідків.

Візьмемо, наприклад, монету і кинемо її на стіл. Вона впаде або орлом, або рішкою. У нас є 2 рівноймовірні події. Після того, як ми кинули монетку, ми отримали \log_(2)2=1 біт інформації.

Спробуємо дізнатися, скільки інформації ми отримаємо після того, як кинемо кубик. У кубика шість граней – шість рівноймовірних подій. Отримуємо: \log_(2)6 \approx 2,6. Після того, як ми кинули кубик на стіл, ми отримали приблизно 2,6 біт інформації.


Імовірність того, що ми побачимо марсіанського динозавра, коли вийдемо з дому, дорівнює одній десятимільярдній. Скільки інформації ми отримаємо про марсіанського динозавра після того, як вийдемо з дому?

-\left(((1 \over (10^(10)))) \log_2(1 \over (10^(10))) + \left(( 1 - (1 \over (10^(10)))) ) \right) \log_2 \left(( 1 - (1 \over (10^(10))) )\right)) \right) \approx 3,4 \cdot 10^(-9) біта.

Припустимо, що ми залишили 8 монет. Ми маємо 2^8 варіантів падіння монет. Отже, після кидка монет ми отримаємо \log_2(2^8)=8 біт інформації.

Коли ми ставимо питання і можемо однаково отримати відповідь «так» чи «ні», то після відповіді питання ми отримуємо один біт інформації.


Дивно, що якщо застосувати формулу Шеннона для аналогової інформації, ми отримаємо нескінченну кількість інформації. Наприклад, напруга в точці електричного ланцюга може набувати рівноймовірного значення від нуля до одного вольта. Кількість наслідків у нас дорівнює нескінченності і, підставивши це значення у формулу для рівноймовірних подій, ми отримаємо нескінченність – нескінченну кількість інформації.

Зараз я покажу, як закодувати «Війну і мир» за допомогою лише однієї ризики на будь-якому металевому стрижні. Закодуємо всі літери та знаки, що зустрічаються у «Війні та мир», за допомогою двозначних цифр – їх має нам вистачити. Наприклад, букві "А" дамо код "00", букві "Б" - код "01" і так далі, закодуємо розділові знаки, латинські букви і цифри. Перекодуємо «Війну і мир» за допомогою цього коду і отримаємо довге число, наприклад, таке 70123856383901874..., намалюємо перед цим числом кому і нуль (0,70123856383901874...). Вийшло число від нуля до одиниці. Поставимо ризику на металевому стрижні так, щоб відношення лівої частини стрижня до довжини цього стрижня дорівнювало якраз нашому числу. Таким чином, якщо раптом нам захочеться почитати «Війну і мир», ми просто виміряємо ліву частину стрижня до ризику і довжину всього стрижня, поділимо одне число на інше, отримаємо число та перекодуємо його назад у літери («00» у «А», "01" в "Б" і т.д.).

Реально таке зробити нам не вдасться, тому що ми не зможемо визначати довжини з нескінченною точністю. Збільшувати точність виміру нам заважають деякі інженерні проблеми, а квантова фізика нам показує, що після певної межі, нам вже заважатиме квантові закони. Інтуїтивно нам зрозуміло, що чим менша точність виміру, тим менше інформації ми отримуємо, і чим більша точність виміру, тим більше інформації ми отримуємо. Формула Шеннона не підходить для вимірювання кількості аналогової інформації, але для цього існують інші методи, що розглядаються в «Теорії інформації». У комп'ютерній техніці біт відповідає фізичному стану носія інформації: намагнічено – не намагнічено, є отвір – немає отвору, заряджено – не заряджено, відбиває світло – не відбиває світло, високий електричний потенціал – низький електричний потенціал. У цьому одне стан прийнято позначати цифрою 0, інше – цифрою 1. Послідовністю бітів можна закодувати будь-яку інформацію: текст, зображення, звук тощо.


Нарівні з бітом часто використовується величина звана байтом, зазвичай вона дорівнює 8 бітам. І якщо біт дозволяє вибрати один рівноймовірний варіант із двох можливих, то байт - 1 із 256 (2^8). Для вимірювання кількості інформації також прийнято використовувати більші одиниці:

1 Кбайт (один кілобайт) 210 байт = 1024 байта

1 Мбайт (один мегабайт) 210 Кбайт = 1024 Кбайта

1 Гбайт (один гігабайт) 210 Мбайт = 1024 Мбайта

Реально приставки СІ кіло-, мега-, гіга-мають використовуватися для множників 10^3, 10^6 і 10^9, відповідно, але історично склалася практика використання множників зі ступенями двійки.


Біт по Шеннону і біт, який використовується в комп'ютерній техніці, збігаються, якщо ймовірність появи нуля або одиниці в комп'ютерному биті дорівнює. Якщо ймовірності не рівні, то кількості інформації по Шеннону стає менше, це ми побачили на прикладі марсіанського динозавра. Комп'ютерна кількість інформації дає найвищу оцінку кількості інформації. Енергозалежна пам'ять після подачі на неї живлення ініціалізується зазвичай якимось значенням, наприклад, всі одиниці або всі нулі. Зрозуміло, що після подачі харчування на згадку, ніякої інформації там немає, оскільки значення в осередках пам'яті суворо визначені, ніякої невизначеності немає. Пам'ять може зберігати в собі певну кількість інформації, але після подачі на неї живлення жодної інформації в ній немає.

Дезінформація - свідомо неправдива інформація, що надається противнику або діловому партнеру для більш ефективного ведення бойових дій, співпраці, перевірки на витік інформації та напрямок її витоку, виявлення потенційних клієнтів чорного ринку. Також дезінформацією (також дезінформовані) називається сам процес маніпулювання інформацією, введення будь-кого в оману шляхом надання неповної інформації або повної, але вже не потрібної інформації, спотворення контексту, спотворення частини інформації.


Мета такого впливу завжди одна – опонент повинен вчинити так, як це необхідно маніпулятору. Вчинок об'єкта, проти якого спрямована дезінформація, може полягати у прийнятті потрібного маніпулятора рішення або відмовитися від прийняття невигідного для маніпулятора рішення. Але в будь-якому випадку кінцева мета - це дія, яка буде здійснена опонентом.

Дезінформація, таким чином, - це продукт діяльності людини, спроба створити хибне враження і, відповідно, підштовхнути до бажаних дій та/або бездіяльності.

Види дезінформації:

Введення в оману конкретної особи або групи осіб (у тому числі цілої нації);

Маніпулювання (вчинками однієї людини або групи осіб);

Створення громадської думки щодо якоїсь проблеми чи об'єкта.

Введення в оману - це нічим іншим, як прямий обман, надання хибної інформації. Маніпулювання - це спосіб впливу, спрямований безпосередньо на зміну напряму активності людей. Вирізняють такі рівні маніпулювання:

Посилення існуючих у свідомості людей, вигідних маніпулятору цінностей (ідей, установок);

Часткова зміна поглядів на ту чи іншу подію чи обставину;

Кардинальна зміна життєвих установок.

Створення громадської думки – це формування у суспільстві певного ставлення до обраної проблеми.


Джерела та посилання

ru.wikipedia.org – вільна енциклопедія Вікіпедія

youtube.com - відеохостинг ютуб

images.yandex.ua - картинки яндекс

google.com.ua - картинки гугл

ru.wikibooks.org - вікіпідручник

inf1.info – Планета Інформатики

old.russ.ru – Російський Журнал

shkolo.ru - Інформаційний довідник

5byte.ru – Сайт інформатики

ssti.ru – Інформаційні технології

klgtu.ru - Інформатика

informatika.sch880.ru – сайт вчителя інформатики О.В. Підвінцевий

bibliofond.ru - електронна бібліотека Бібліофонд

life-prog.ru - програмування