Metoda kvantitativního hodnocení informací: statistická, sémantická, pragmatická a strukturální. Syntaktické, sémantické a pragmatické míry informace

Téma 2. Základy reprezentace a zpracování informací v počítači

Literatura

1. Informatika v ekonomii: Učebnice/Ed. BÝT. Odintsová, A.N. Romanová. – M.: Vysokoškolská učebnice, 2008.

2. Informatika: Základní kurz: Učebnice/Ed. S.V. Simonovič. – Petrohrad: Petr, 2009.

3. Informatika. Obecný kurz: Učebnice/Spoluautor: A.N. Guda, M.A. Butáková, N.M. Nechitailo, A.V. Černov; Pod obecným vyd. V.I. Kolesníková. – M.: Dashkov a K, 2009.

4. Informatika pro ekonomy: Učebnice/Ed. Matyushka V.M. - M.: Infra-M, 2006.

5. Ekonomická informatika: Úvod do ekonomické analýzy informačních systémů - M.: INFRA-M, 2005.

Míry informací (syntaktické, sémantické, pragmatické)

K měření informací lze použít různé přístupy, ale ty nejpoužívanější jsou statistický(pravděpodobnostní), sémantický a p pragmatický metody.

Statistický(pravděpodobnostní) metodu měření informace vyvinul K. Shannon v roce 1948, který navrhl považovat množství informace za míru nejistoty stavu systému, odstraněné v důsledku příjmu informace. Kvantitativní vyjádření nejistoty se nazývá entropie. Pokud pozorovatel po obdržení určité zprávy získal další informace o systému X, pak se nejistota snížila. Dodatečné množství přijatých informací je definováno jako:

kde je další množství informací o systému X, přijaté ve formě zprávy;

Počáteční nejistota (entropie) systému X;

Konečná nejistota (entropie) systému X, které nastanou po obdržení zprávy.

Pokud systém X může být v jednom z diskrétních stavů, jejichž počet n a pravděpodobnost nalezení systému v každém z nich je stejná a součet pravděpodobností všech stavů je roven jedné, pak se entropie vypočítá pomocí Shannonova vzorce:

kde je entropie systému X;

A- základ logaritmu, který určuje jednotku měření informace;

n– počet stavů (hodnot), ve kterých se systém může nacházet.

Entropie je kladná veličina, a protože pravděpodobnosti jsou vždy menší než jedna a jejich logaritmus je záporný, znaménko mínus ve vzorci K. Shannona činí entropii kladnou. Tedy stejná entropie, ale s opačným znaménkem, je brána jako míra množství informace.

Vztah mezi informací a entropií lze chápat takto: získávání informací (jejich zvýšení) současně znamená snížení neznalosti nebo informační nejistoty (entropie)

Statistický přístup tedy bere v úvahu pravděpodobnost výskytu zpráv: zpráva, která je méně pravděpodobná, je považována za více informativní, tzn. nejméně očekávané. Množství informace dosáhne své maximální hodnoty, pokud jsou události stejně pravděpodobné.

R. Hartley navrhl následující vzorec pro měření informací:

I=log2n ,

Kde n- počet stejně pravděpodobných událostí;

– míra informace ve zprávě o výskytu jednoho z n události

Měření informace je vyjádřeno v jejím objemu. Nejčastěji se to týká velikosti paměti počítače a množství dat přenášených komunikačními kanály. Za jednotku se považuje množství informace, při kterém je nejistota snížena na polovinu; bit .

Pokud se jako základ logaritmu v Hartleyho vzorci použije přirozený logaritmus (), pak jednotkou měření informace je nat ( 1 bit = ln2 ≈ 0,693 nat). Pokud je jako základ logaritmu použito číslo 3, pak - zacházet pokud 10, tak - dit (Hartley).

V praxi se častěji používá větší jednotka - byte(byte) rovných osmi bitům. Tato jednotka byla vybrána, protože ji lze použít ke kódování libovolného z 256 znaků abecedy počítačové klávesnice (256=28).

Kromě bajtů se informace měří v polovičních slovech (2 bajty), slovech (4 bajty) a dvojitých slovech (8 bajtů). Ještě větší jednotky měření informací jsou také široce používány:

1 kilobajt (kB - kilobajt) = 1024 bajtů = 210 bajtů,

1 megabajt (MB - megabajt) = 1024 kB = 220 bajtů,

1 gigabajt (GB - gigabajt) = 1024 MB = 230 bajtů.

1 terabajt (TB - terabajt) = 1024 GB = 240 bajtů,

1 petabajt (PByte - petabajt) = 1024 TB = 250 bajtů.

V roce 1980 ruský matematik Yu Manin navrhl myšlenku sestavit kvantový počítač, v souvislosti s nímž se taková jednotka informace objevila jako qubit ( kvantový bit, qubit ) – „kvantový bit“ je míra měření množství paměti v teoreticky možné formě počítače, který využívá kvantová média, například spiny elektronů. Qubit nemůže nabývat dvou různých hodnot („0“ a „1“), ale několik, odpovídajících normalizovaným kombinacím dvou základních spinových stavů, což dává větší počet možných kombinací. 32 qubitů tedy může zakódovat asi 4 miliardy stavů.

Sémantický přístup. Syntaktické měřítko nestačí, pokud potřebujete určit nikoli objem dat, ale množství informací potřebných ve zprávě. V tomto případě se uvažuje sémantické hledisko, které nám umožňuje určit obsah informace.

Pro měření sémantického obsahu informace můžete použít tezaurus jejího příjemce (spotřebitele). Myšlenku metody tezauru navrhl N. Wiener a rozvinul náš domácí vědec A.Yu. Schrader.

tezaurus volal soubor informací které příjemce informace má. Korelace tezauru s obsahem přijaté zprávy umožňuje zjistit, jak moc snižuje nejistotu.

Závislost objemu sémantické informace zprávy na tezauru příjemce

Podle závislosti prezentované na grafu, pokud uživatel nemá žádný tezaurus (znalost o podstatě přijaté zprávy, tj. =0), nebo přítomnost takového tezauru, který se v důsledku příchodu nezměnil zprávy (), pak se množství sémantické informace v ní rovná nule. Optimální tezaurus () bude takový, ve kterém bude objem sémantické informace maximální (). Například sémantické informace v příchozí zprávě na v neznámém cizím jazyce bude nula, ale stejná situace bude i v případě pokud zpráva již není novinkou, protože uživatel už všechno ví.

Pragmatické opatření informace určuje jeho užitečnost při dosahování cílů spotřebitele. K tomu stačí určit pravděpodobnost dosažení cíle před a po obdržení zprávy a porovnat je. Hodnota informací (podle A.A. Kharkeviče) se vypočítá pomocí vzorce:

kde je pravděpodobnost dosažení cíle před přijetím zprávy;

Pravděpodobnost dosažení cíle je polem přijetí zprávy;

V databázi jsou informace zaznamenávány a reprodukovány pomocí speciálně vytvořených lexikálních prostředků a na základě přijatých syntaktických pravidel a omezení.

Syntaktická analýza stanoví nejdůležitější parametry informačních toků, včetně nezbytných kvantitativních charakteristik, pro výběr souboru technických prostředků pro sběr, záznam, přenos, zpracování, shromažďování, ukládání a ochranu informací.

Syntaktická analýza obsluhovaných informačních toků nutně předchází všem fázím návrhu informačních systémů.

Sémantická analýza umožňuje studovat informace z hlediska sémantického obsahu jednotlivých prvků, nacházet způsoby jazykové korespondence (lidský jazyk, počítačový jazyk) s jednoznačným rozpoznáním zpráv zadávaných do systému.

Pragmatická analýza se provádí s cílem určit užitečnost informací používaných pro řízení, přičemž se identifikuje praktický význam zpráv používaných k rozvoji kontrolních akcí.

Trvalé informace zůstávají nezměněny nebo procházejí drobnými úpravami po více či méně dlouhé časové období. Jedná se o různé referenční informace, normy, ceny atd.

Proměnné informace odrážejí výsledky výrobních a ekonomických operací, odpovídají jejich dynamice a účastní se zpravidla jednoho technologického cyklu strojního zpracování.

Při zadávání a zpracování informací se používá dávkový a interaktivní režim.

Dávkový režim byl nejrozšířenější v praxi centralizovaného řešení ekonomických problémů, kdy velký podíl zaujímaly úkoly podávání zpráv o výrobě a hospodářské činnosti ekonomických subjektů na různých úrovních řízení. Organizace výpočetního procesu v dávkovém režimu byla postavena bez přístupu uživatele k počítači.

Jeho funkce se omezovaly na přípravu zdrojových dat pro sadu vzájemně propojených úloh a jejich přenos do zpracovatelského centra, kde se vytvořil balíček, zahrnující počítačovou úlohu pro zpracování, programy, zdroj, standardní ceny a referenční data. Balíček byl vložen do počítače a implementován automaticky bez účasti uživatele nebo operátora, což umožnilo minimalizovat čas potřebný k dokončení dané sady úkolů. V současné době je dávkový režim implementován v e-mailu nebo masivních aktualizacích databáze.

Interaktivní režim umožňuje přímou interakci uživatele s informačním a výpočetním systémem, může mít povahu požadavku nebo dialogu se systémem.

Režim požadavku je nezbytný pro interakci uživatelů se systémem prostřednictvím značného počtu účastnických koncových zařízení, včetně těch umístěných ve značné vzdálenosti od zpracovatelského centra.

Příklad: Úkol rezervace jízdenek pro přepravu.

Informační systém implementuje hromadnou obsluhu a funguje v režimu sdílení času, ve kterém má několik nezávislých uživatelů využívajících terminály přímo a prakticky

simultánní přístup do informačního systému. Tento režim vám umožňuje odlišně, v přesně stanoveném pořadí, poskytnout každému uživateli čas na komunikaci se systémem a po skončení relace jej opustit.

Dialogový režim umožňuje uživateli přímou interakci s informačním a výpočetním systémem v pracovním tempu, které je pro něj přijatelné, zaváděním opakujícího se cyklu zadání úkolu, příjmu a analýzy odpovědi.

Více k tématu: Syntaktické, sémantické, pragmatické aspekty informačního procesu:

  1. Struktura hromadných informačních činností: shromažďování, zpracování, uspořádání, přenos, vnímání, transformace, uchovávání a využívání hromadných informací. Potenciální, přijímané a aktuální informace. Sémantické, syntaktické a pragmatické aspekty hromadných informačních textů.
  2. Jednotky a metody konceptualizace v sémantických, syntaktických a pragmatických aspektech
  3. 7. KRITÉRIA PŘIMĚŘENOSTI NOVINÁŘSKÉHO TEXTU SÉMANICKÉ, SYNTAXICKÉ, PRAGMATICKÉ ASPEKTY NOVINÁŘSKÉHO TEXTU SPECIFICITA ÚČINNOSTI NOVINÁŘSKÉHO TEXTU

Syntaktická míra informace.

Tato míra množství informací operuje s neosobní informací, která nevyjadřuje sémantický vztah k objektu. Objem dat Vd v tomto případě je zpráva měřena počtem znaků (bitů) ve zprávě. V různých číselných soustavách má jedna číslice různou váhu a podle toho se mění i jednotka měření dat.

Například v systému binárních čísel je jednotkou měření bit (bit-binární číslice - binární číslice). Bit je odpověď na jedinou binární otázku („ano“ nebo „ne“; „0“ nebo „1“) přenášenou komunikačními kanály pomocí signálu. Množství informací obsažených ve zprávě v bitech je tedy určeno počtem binárních slov přirozeného jazyka, počtem znaků v každém slově a počtem binárních signálů nezbytných k vyjádření každého znaku.

V moderních počítačích je spolu s minimální jednotkou měření dat „bit“ široce používána zvětšená jednotka měření „byte“, která se rovná 8 bitům. V systému desetinných čísel je jednotkou měření „bit“ (desetinné místo).

Množství informací I na syntaktické úrovni nelze určit bez uvážení konceptu neurčitosti stavu systému (entropie systému). Získávání informací o nějakém systému je totiž vždy spojeno se změnou míry neznalosti příjemce o stavu tohoto systému, tzn. množství informace se měří změnou (snížením) nejistoty stavu systému.

Koeficient (stupeň) obsahu informace(stručnost) zprávy je dána poměrem množství informací k množství dat, tzn.

Y = I / Vd, s 0

S nárůstem Y množství práce na transformaci informací (dat) v systému se snižuje. Usilují proto o zvyšování informačního obsahu, k čemuž se vyvíjejí speciální metody pro optimální kódování informací.

Sémantická míra informace

K měření sémantického obsahu informace, tzn. její kvantita na sémantické úrovni, nejuznávanější je míra tezauru, která spojuje sémantické vlastnosti informace se schopností uživatele přijmout příchozí zprávu. K tomuto účelu se používá koncept uživatelský tezaurus.

tezaurus je sbírka informací dostupných uživateli nebo systému.

V závislosti na vztahu mezi sémantickým obsahem informace S a tezaurus uživatele Sp množství sémantických informací se mění Ic, vnímaný uživatelem a následně jím zahrnut do svého tezauru.

Charakter této závislosti je znázorněn na Obr. 1. Zvažte dva omezující případy, kdy množství sémantické informace rovná se 0:

na Sp= 0 uživatel nevnímá nebo nerozumí příchozím informacím;

Na Sp uživatel vše ví a příchozí informace nepotřebuje.

Pro měření informace se zavádějí dva parametry: množství informace I a množství dat Vd.

Tyto parametry mají různé výrazy a interpretace v závislosti na zvažované formě přiměřenosti.

Syntaktická přiměřenost. Odráží formální a strukturální charakteristiky informace a neovlivňuje její sémantický obsah. Na syntaktické úrovni se zohledňuje typ média a způsob prezentace informace, rychlost přenosu a zpracování, velikost kódů pro prezentaci informace, spolehlivost a přesnost převodu těchto kódů atd.

Informace uvažované pouze ze syntaktické pozice se obvykle nazývá data, protože na sémantické stránce nezáleží.

Sémantická (pomyslná) přiměřenost. Tato forma určuje míru korespondence mezi obrazem předmětu a předmětem samotným. Sémantický aspekt zahrnuje zohlednění sémantického obsahu informace. Na této úrovni se analyzují informace, které informace odrážejí, a zvažují se sémantické souvislosti. V informatice se mezi kódy pro reprezentaci informací vytvářejí sémantická spojení. Tato forma slouží k utváření pojmů a myšlenek, identifikaci významu, obsahu informací a jejich zobecnění.

Pragmatická (spotřebitelská) přiměřenost. Odráží vztah mezi informací a jejím spotřebitelem, soulad informací s cílem řízení, který je na jejím základě realizován. Pragmatické vlastnosti informace se projeví pouze tehdy, pokud existuje jednota informace (objektu), uživatele a cíle řízení.

Pragmatický aspektúvaha je spojena s hodnotou, užitečností použití informací, když spotřebitel vyvíjí řešení k dosažení svého cíle. Z tohoto hlediska jsou analyzovány spotřebitelské vlastnosti informací. Tato forma přiměřenosti přímo souvisí s praktickým využitím informací, s jejich souladem s cílovou funkcí systému.

Každá forma přiměřenosti odpovídá své vlastní míře množství informací a objemu dat (obr. 2.1).

Rýže. 2.1.

Informační opatření

2.2.1. Syntaktická míra informace Syntaktická míra

kvantita informací operuje s neosobní informací, která nevyjadřuje sémantický vztah k objektu.

  • Objem dat V d ve zprávě se měří počtem znaků (bitů) v této zprávě. V různých číselných soustavách má jedna číslice různou váhu a podle toho se mění i jednotka měření: v systému binárních čísel je jednotkou měření bit ( bit
  • - binární číslice - binární číslice);

V systému desetinných čísel je měrnou jednotkou dit (desetinné místo).

Příklad. Zpráva v binární soustavě ve formě osmibitového binárního kódu 10111011 má objem dat V d = 8 bitů.

Zpráva v desítkové soustavě ve tvaru šestimístného čísla 275903 má objem dat V d = 6 dit.

Množství informací je určeno vzorcem:

kde H (α) je entropie, tzn. množství informace se měří změnou (snížením) nejistoty stavu systému.

kde p i je pravděpodobnost, že systém je v i-tém stavu.

Pro případ, kdy jsou všechny stavy systému stejně pravděpodobné, je jeho entropie určena vztahem

kde N je počet všech možných zobrazených stavů;

m - základ číselné soustavy (různé symboly používané v abecedě);

n je počet bitů (znaků) ve zprávě.

2.2.2. Sémantická míra informace

K měření sémantického obsahu informace, tzn. její kvantita na sémantické úrovni, nejuznávanější je míra tezauru, která spojuje sémantické vlastnosti informace se schopností uživatele přijmout příchozí zprávu. K tomuto účelu se používá koncept uživatelský tezaurus.

Tezaurus je soubor informací dostupných uživateli nebo systému.

V závislosti na vztahu mezi sémantickým obsahem informace S a uživatelským tezaurem S p se mění množství sémantických informací, které uživatel vnímá a které následně zahrne do svého tezauru. Charakter této závislosti je znázorněn na obr. 2.2:

  • když S p =0 uživatel nevnímá nebo nerozumí příchozí informaci;
  • když S p → ∞ uživatel ví vše, nepotřebuje příchozí informace.

Rýže. 2.2.

Závislost množství sémantické informace vnímané spotřebitelem na jeho tezauru I с = f (S p)

Při posuzování sémantické (obsahové) stránky informace je třeba usilovat o harmonizaci hodnot S a S p.

Relativní mírou množství sémantické informace může být obsahový koeficient C, který je definován jako poměr množství sémantické informace k jejímu objemu:

2.2.3. Pragmatická míra informací

Toto měřítko určuje užitečnost informace (hodnoty) pro uživatele k dosažení jeho cíle. Tato míra je také relativní hodnotou, určenou zvláštnostmi použití informací v konkrétním systému. Je vhodné měřit hodnotu informace ve stejných jednotkách (nebo jim blízkých), ve kterých se měří účelová funkce.

Pro srovnání uvádíme zadané informační míry v tabulce. 2.1. Tabulka 2.1.

Informační jednotky a příklady Míra informací Jednotky měření
Příklady (pro počítačovou oblast)

Syntaktický:

Shannon se blíží

počítačový přístup Stupeň snížení nejistoty
Pravděpodobnost události Jednotky prezentace informací
Bit, byte, KB atd. tezaurus Sémantický
Aplikační softwarový balík, osobní počítač, počítačové sítě atd. Ekonomické ukazatele
Ziskovost, produktivita, odpisová sazba atd. Pragmatický Hodnota v užívání
Peněžní hodnota Kapacita paměti, výkon počítače, rychlost přenosu dat atd.

Informační interakce. Způsoby přenosu informací. Klasifikace informací.

Koncepce informací. Vlastnosti informace. Formuláře pro prezentaci informací.

Informace (z latinského informatio - „vysvětlení, prezentace, povědomí“) - informace o něčem, bez ohledu na formu jeho prezentace.

Informace lze rozdělit do typů podle různých kritérií:

podle vnímání:

Vizuální – vnímáno orgány zraku.

Sluchové – vnímáno orgány sluchu.

Hmatové – vnímané hmatovými receptory.

Čichový – vnímán čichovými receptory.

Chuťové – vnímané chuťovými pohárky.

podle formuláře prezentace:

Text - přenášený ve formě symbolů určených k označení lexémů jazyka.

Numerické - ve formě čísel a znaků označujících matematické operace.

Grafika - ve formě obrázků, objektů, grafů.

Zvuk - ústní nebo formou záznamu a přenosu jazykových lexémů sluchovými prostředky.

podle účelu:

Hromadné – obsahuje triviální informace a operuje se souborem pojmů srozumitelných většině společnosti.

Speciální - obsahuje specifický soubor pojmů, při použití se přenášejí informace, které nemusí být srozumitelné většině společnosti, ale jsou nezbytné a srozumitelné v rámci úzké sociální skupiny, kde se tyto informace používají.

Tajemství - přenášeno do úzkého okruhu lidí a prostřednictvím uzavřených (chráněných) kanálů.

Osobní (soukromé) - soubor informací o člověku, který určuje sociální status a typy sociálních interakcí v rámci populace.

podle hodnoty:

Relevantní – informace, které jsou v danou chvíli cenné.

Spolehlivé – informace získané bez zkreslení.

Srozumitelné – informace vyjádřené v jazyce srozumitelném těm, kterým jsou určeny.

Úplné – informace dostatečné pro správné rozhodnutí nebo pochopení.

Užitečné - užitečnost informace určuje subjekt, který informaci obdržel v závislosti na rozsahu možností jejího využití.

po pravdě:

věrný

V informatice jsou předmětem studia informací právě data: způsoby jejich tvorby, ukládání, zpracování a přenosu.

Přenos informace je proces jejího prostorového přenosu od zdroje k příjemci (adresátovi). Člověk se naučil informace vysílat a přijímat ještě dříve, než je ukládat. Řeč je způsob přenosu, který naši vzdálení předkové používali v přímém kontaktu (rozhovoru) – používáme ho i nyní. Pro přenos informací na velké vzdálenosti je nutné využívat mnohem složitější informační procesy.



K provedení takového procesu musí být informace nějakým způsobem naformátována (prezentována). K prezentaci informací se používají různé znakové systémy - soubory předem určených sémantických symbolů: předměty, obrázky, psaná nebo tištěná slova přirozeného jazyka. Sémantická informace o jakémkoli objektu, jevu nebo procesu prezentovaná s jejich pomocí se nazývá zpráva.

Je zřejmé, že aby bylo možné přenést zprávu na dálku, musí být informace přenesena na nějaký druh mobilního média. Nosiče se mohou pohybovat vesmírem pomocí vozidel, jako je tomu u dopisů zasílaných poštou. Tento způsob zajišťuje úplnou spolehlivost přenosu informace, protože adresát obdrží původní zprávu, ale vyžaduje značný čas na přenos. Od poloviny 19. století se rozšířily způsoby přenosu informací pomocí přirozeně se šířícího nosiče informace - elektromagnetických vibrací (elektrické vibrace, rádiové vlny, světlo). Zařízení, která implementují proces přenosu dat, tvoří komunikační systémy. Podle způsobu prezentace informací lze komunikační systémy rozdělit na znakové (telegraf, telefax), zvukové (telefon), video a kombinované systémy (televize). Nejrozvinutějším komunikačním systémem v naší době je internet.

Informační jednotky se používají k měření různých charakteristik spojených s informacemi.

Nejčastěji se měření informací týká měření kapacity paměti počítače (úložných zařízení) a měření množství dat přenášených digitálními komunikačními kanály. Méně běžně se měří množství informací.

Bit (anglicky binary digit - binární číslo; také slovní hříčka: anglicky bit - piece, částice) - měrná jednotka množství informace, rovná jedné číslici v binární číselné soustavě. Určeno podle GOST 8.417-2002

Claude Shannon v roce 1948 navrhl použití slova bit k označení nejmenší jednotky informace:

Bit je binární logaritmus pravděpodobnosti stejně pravděpodobných událostí nebo součet součinů pravděpodobnosti binárním logaritmem pravděpodobnosti pro stejně pravděpodobné události; viz informační entropie.

Bit – základní jednotka měření množství informace, která se rovná množství informací obsažených v zážitku, který má dva stejně pravděpodobné výsledky; viz informační entropie. To je totožné s množstvím informací v odpovědi na otázku, která umožňuje odpovědi „ano“ nebo „ne“ a nic jiného (tedy množství informací, které vám umožní jednoznačně odpovědět na položenou otázku).

Syntaktická míra informace

Vznik informační vědy jako vědy lze datovat do konce 50. let našeho století, kdy se americký inženýr R. Hartley pokusil zavést kvantitativní měření informací přenášených komunikačními kanály. Podívejme se na jednoduchou herní situaci. Před přijetím zprávy o výsledku hodu mincí je člověk ve stavu nejistoty ohledně výsledku dalšího hodu. Sdělení partnera poskytuje informace, které tuto nejistotu odstraňují. Všimněte si, že počet možných výsledků v popsané situaci je 2, jsou stejné (stejně pravděpodobné) a pokaždé přenesená informace zcela odstranila vzniklou nejistotu. Hartley vzal „množství informací“ přenášených komunikačním kanálem ohledně dvou stejných výsledků a odstranění nejistoty ovlivněním jednoho z nich jako jednotku informace nazývanou „bit“.

Sémantická míra informace

Nová etapa teoretického rozšíření pojmu informace je spojena s kybernetikou – vědou o řízení a komunikaci v živých organismech, společnosti a strojích. Kybernetika setrvávající na pozicích Shannonova přístupu formuluje princip jednoty informace a řízení, což je zvláště důležité pro analýzu podstaty procesů probíhajících v samosprávných, samoorganizujících se biologických a sociálních systémech. Koncepce vyvinutá v pracích N. Wienera předpokládá, že proces řízení ve zmíněných systémech je procesem zpracování (transformace) nějakým centrálním zařízením informací přijatých ze zdrojů primárních informací (senzorických receptorů) a jejich předávání do těch částí systém, kde je svými prvky vnímán jako příkaz k provedení té či oné akce. Po samotné akci jsou senzorické receptory připraveny předat informaci o změněné situaci k provedení nového řídicího cyklu. Takto je organizován cyklický algoritmus (sekvence akcí) pro správu a oběh informací v systému. Důležité je, že hlavní roli zde hraje obsah informací přenášených receptory a centrálním zařízením. Informace je podle Wienera „označení obsahu přijatého z vnějšího světa v procesu našeho přizpůsobení se mu a přizpůsobení našich smyslů mu“.

Pragmatická míra informací

V pragmatických pojetích informací je toto hledisko stěžejní, což vede k nutnosti brát v úvahu hodnotu, užitečnost, efektivitu, hospodárnost informace, tzn. ty jeho vlastnosti, které rozhodujícím způsobem ovlivňují chování samoorganizujících se, samosprávných, účelných kybernetických systémů (biologický, sociální, člověk-stroj).

Jedním z nejjasnějších představitelů pragmatických teorií informace je behaviorální model komunikace – behavioristický Ackoff-Miles model. Výchozím bodem v tomto modelu je cílová aspirace příjemce informace řešit konkrétní problém. Příjemce je ve „stavu zaměřeném na cíl“, pokud o něco usiluje a má alternativní cesty nestejné účinnosti k dosažení cíle. Zpráva předaná příjemci je informativní, pokud změní jeho „účelový stav“.

Vzhledem k tomu, že „stav orientovaný na cíl“ je charakterizován sledem možných akcí (alternativ), efektivitou akce a významností výsledku, může zpráva předaná příjemci v různé míře ovlivnit všechny tři složky. V souladu s tím se předávané informace liší podle typu na „informační“, „instrukční“ a „motivující“. Pro příjemce tedy spočívá pragmatická hodnota sdělení v tom, že mu umožňuje nastínit strategii chování při dosahování cíle konstruováním odpovědí na otázky: co, jak a proč dělat v každém dalším kroku? Pro každý typ informace nabízí behavioristický model své vlastní měřítko a celková pragmatická hodnota informace je určena jako funkce rozdílu mezi těmito veličinami v „cílově orientovaném stavu“ před a po jeho změně na nový „cíl“. -orientovaný stát."




Nahoru