Информация
Информацията (от на латински: informatio – разяснение, изложение, осведоменост) е понятие, свързано с обективното свойство на материалните обекти и явления (процеси) да пораждат многообразие от състояния, които могат да се предават на други обекти чрез взаимодействия и да се запечатват в тяхната структура. [1]. Информацията представлява налично, използваемо знание, но не съществува единна дефиниция, а има сравнително широк кръг от значения в различните области на знанието.[2].
Информацията е едно от общите понятия, свързани с материята като философско понятие. Информацията съществува във всеки материален обект като многообразие на неговите състояния и може да се създава, унищожава, предава, приема, съхранява и обработва. Съществуването на информацията като обективно свойство на материята произтича от нейните фундаментални свойства – структурност, непрекъснато изменение (движение) и взаимодействие между материалните обекти.
В по-тесния технически смисъл информацията е подредена редица от символи – данни. Те са обект на изследване от информатиката. Информационните технологии са дял на техниката, чиято основна задача е автоматизиране и систематизиране на работата с информация с помощта на изчислителна техника (компютри).
Терминът „информация“ е тясно свързан с понятия като комуникация, система за управление, образование, значение, стимул, възприятие.
Класификация
[редактиране | редактиране на кода]Информацията може да се класифицира по различни критерии.
- Начин на получаване
- Отразена – информация, която хората възприемат чрез сетивата си, обработват я в съзнанието си, като използват собствените си умствени възможности. Тя е субективна и не може да е достъпна непосредствено за други лица.
- Материализирана – информация, представена върху материални (физически) носители. Може да се използва от всеки индивид. Тя е предмет на информатиката. В зависимост от материалната форма на носителя, информацията бива два основни вида:
С вида на информацията е свързан изборът на начин за представянето ѝ (кодиране). Сама по себе си информацията не е материална, а като свойство на материята съществува на материални носители във вид на кодове.
- Вид възприятие
- Визуална – възприема се с органите на зрението.
- Слухова – възприема се с органите на слуха.
- Тактилна – възприема се с тактилни рецептори.
- Обонятелна – възприема се с рецептори за обоняние.
- Вкусова – възприема се с рецептори за вкус.
- Форма на представяне
- Текстова – предава се във вид на символи, предназначени да предават езика.
- Числова – във вид на цифри и знаци за математически действия.
- Графична – във вид на изображения, предмети, графики.
- Звукова – устна или във вид на запис, предназначени да предават езика.
- Предназначение
- Масова – съдържа тривиални сведения и оперира с набор от понятия, разбираеми за по-голямата част от социума.
- Специална – съдържа специфичен набор от понятия и предава сведения, които може и да не са разбираеми за по-голямата част от социума, но са необходими и понятни в рамките на тясна социална група, където дадената информация се използва.
- Лична – набор от сведения от личен характер.
Кодиране на информацията
[редактиране | редактиране на кода]Кодирането представлява система на подреждане на дадени знаци или други средства за действия с информацията. Например различните азбуки, състоящи се от букви, образуват думи (код от букви), а те изречения, които представляват съобщения. Друг пример е музиката, която се записва с ноти.
При изчислителните машини, апарати и средства се използва най-често система за кодиране, съответна на бройна система. В зависимост от бройната система тя може да е:
Единична – код от 1 (безсмислена за кодиране, защото не е възможно да се предаде съобщение с код от единствен символ!);
Двоична – 0 и 1 (информация 1 бит на символ – Да /Не, има сигнал/няма сигнал, присъща на всички съвременни дигитални устройства);
Троична – 0, 1, 2 (пример е Морзовата азбука – тире, точка, интервал);
...
N бройна система – 0, 1, 2,..., (N-1).
Съхраняване и обработване на информацията
[редактиране | редактиране на кода]Представлява кодиране на информацията като данни и съответно промяната ѝ чрез аритметично или друго подобно действие като: съкращаване, разширяване, събиране, изваждане, прибавяне, умножаване или друг възможен процес на обработване.
Компютрите използват за тази цел предимно двоичната бройна система, която представлява двоичен код (бинарен) от 1 и 0 (заемат определено място и позиция при кодирането), който се нарича бит и е най-малката единица информация:
1 бит кодира две стойности 1 или 0 („да“ или „не“).
2 бита кодира четири стойности 00, 01, 10, 11.
3 бита кодира осем стойности 000, 001, 010, 011, 100, 101, 110, 111.
...
x бита кодира 2x различни стойности.
Превръщането или записването на дадена информация в цифров вид с числа, се разлага на двоичен код, като нечетните числа се делят на 2 и остатъците 1 или 0 се записват като част от кода.
Пример:
Жълт цвят = 14
14:2=7+0 – > 0
7:2=3+1 – > 1
3:2=1+1 – > 1
1=1 => бинарен код от 1110
За да се подобри процеса на работа с битовете е въведена нова единица – байт като:
1 байт = 8 бита = 0000 0000, 0000 0001,.., 1111 1111 => 256 (28) различни стойности.
2 байта = 16 бита = 0000 0000 0000 0000,.., 1111 1111 1111 1111 => 65 536 (216) различни стойности
...
x байта = 8.x бита = x(0000 0000) => 28x стойности
Битовете могат да бъдат включени =1 или изключени =0 и заемат определено място и позиция в него.
Теория на информацията
[редактиране | редактиране на кода]Теорията на информацията е клон на приложната математика и електротехниката, занимаващ се с количественото измерване на информацията. Нейното начало е поставено в средата на 20 век от американския инженер Клод Шанън, който се опитва да установи фундаменталните ограничения в обработката на сигнали и надеждността на съхраняването и предаването на данни.
През следващите години теорията на информацията намира приложение и в много други области, като статистическите изводи, обработката на естествени езици, криптографията, невробиологията,[3] теорията на еволюцията[4] и функциите на молекулярните кодове,[5] термодинамиката,[6] анализа на данни.[7]
Основна мярка за информация в теорията на информацията е ентропията на Шанън, обикновено изразявана със средния брой битове, необходими за нейното съхранение или предаване. Ентропията оценява несигурността, свързана с предвиждането на стойността на случайна величина. Например, описването на изхода от хвърляне на монета (два равновероятни резултата) съдържа по-малко информация (има по-ниска ентропия) от описването на изхода от хвърляне на зар (шест равновероятни резултата).
Информационно общество
[редактиране | редактиране на кода]Информацията и знанията в съвременното общество се превръщат в основни продукти и определят характера на развитието на цивилизацията. Затова и съвременният етап на развитие на човечеството се нарича информационно общество. В него доминираща роля играят информационно-комуникационните технологии (ИКТ). Характерни са следните особености:
- засилване на ролята на информацията в живота на обществото;
- нараства броят на заетите в информационните технологии, комуникациите и в производството, както и делът на информационни продукти и услуги в БВП;
- нараства проникването на телефони, радио, телевизия, Интернет;
- нараства влиянието на средствата за масова информация;
- като част от глобализацията се създава глобално информационно пространство, осигуряващо на хората по-ефективно взаимодействие и лесен достъп до световните информационни ресурси.
Структура и значение
[редактиране | редактиране на кода]Съществуват четири етапа, под които днес се разглежда понятието информация:
- Code
- Syntax
- Semantik
- Pragmatik
Документация и ред
[редактиране | редактиране на кода]Вилхелм Гаус пише в произведението си Dokumentations-und Ordnungslehre (1995), че информацията може да се разглежда под различни аспекти.
- structure approach
- knowledge approach
- signal approach
- message approach
- meaning approach
- effect approach
- process approach
Вижте също
[редактиране | редактиране на кода]Бележки
[редактиране | редактиране на кода]- ↑ ((ru)) В.М. Глушков, Н.М. Амосов и др. „Энциклопедия кибернетики“. Киев. 1975 г.
- ↑ Information: A Very Short Introduction. Luciano Floridi // Oxford University Press, 2010. Посетен на 16 септември 2010.
- ↑ Rieke, Fred et al. Spikes: Exploring the Neural Code. Cambridge, Mass., MIT Press,, 1997. ISBN 9780262181747. (на английски)
- ↑ Huelsenbeck, J. P. et al. Bayesian inference of phylogeny and its impact on evolutionary biology // Science 294. 2001. p. 2310 – 2314. (на английски)
- ↑ Allikmets, Rando et al. Organization of the ABCR gene: analysis of promoter and splice junction sequences // Gene 215. 1998. p. 111 – 122. (на английски)
- ↑ Jaynes, E. T. Information Theory and Statistical Mechanics // Physical Review 106. 1957. p. 620. (на английски)
- ↑ David R. Anderson. Some background on why people in the empirical sciences may want to better understand the information-theoretic methods (pdf) // 1 ноември 2003. Архивиран от оригинала на 2011-07-23. Посетен на 23 юни 2010. (на английски)
Литература
[редактиране | редактиране на кода]- Arndt, Christoph: Information Measures. Information and its Description in Science and Engineering. Springer, Berlin ²2004. (Springer Series: Signals and Communication Technology.) ISBN 978-3-540-40855-0, [1];
- Gaus, Wilhelm: Dokumentations-und Ordnungslehre. Theorie und Praxis des Information Retrieval. Springer, Berlin (Reihe: eXamen.press) ISBN 3-540-23818-2 [2]
- Holzinger, Andreas: Basiswissen IT/Informatik. Band 1: Informationstechnik. Vogel, Würzburg 2002. ISBN 3-8023-1897-8
- Werner, Martin: Information und Codierung. Vieweg+Teubner, Wiesbaden 2008. ISBN 978-3-8348-0232-3
Теория на информацията
[редактиране | редактиране на кода]- Klimant, Herbert, Rudi Piotraschke, Dagmar Schönfeld: Informations-und Kodierungstheorie. Teubner Verlag., Wiesbaden/Stuttgart 2003, ISBN 3-519-23003-8.
- Holger Lyre: Informationstheorie. Wilhelm Fink Verlag., Paderborn/München 2002, ISBN 3-7705-3446-8.
- Keith Devlin: Infos und Infone. Die mathematische Struktur der Information. Birkhäuser Verlag., Basel/Schweiz 1996, ISBN 3-7643-2703-0.
- Kåhre, Jan: The Mathematical Theory of Information, Springer, Berlin 2002, ISBN 1-4020-7064-0
- Bischof, Norbert: Struktur und Bedeutung. Eine Einführung in die Systemtheorie für Psychologen, Biologen und Sozialwissenschaftler zum Selbststudium und für den Gruppenunterricht. 2. Bern: Hans Huber, 1998. ISBN 3-456-83080-7.
- Tor Nørretranders: Spüre die Welt. Die Wissenschaft des Bewußtseins. Rowohlt, Reinbek 2000. ISBN 3-499-60251-2
- Bieletzke, S. und H.L. Grob: Aufbruch in die Informationsgesellschaft. Lit, Münster 1998. ISBN 3-8258-3844-7
- Luciano Floridi: What is the Philosophy of Information? Архив на оригинала от 2012-10-09 в Wayback Machine., Metaphilosophy, 33.1/2, 123 – 145, auch in T.W. Bynum und J.H. Moor (Hrsg.): CyberPhilosophy: The Intersection of Philosophy and Computing, Oxford – New York: Blackwell 2003.
- Luciano Floridi: The Blackwell Guide to the Philosophy of Computing and Information, Oxford – New York: Blackwell 2004.
- Glasersfeld, Ernst von: Informationsübertragung, in: Leon R. Tsvasman (Hg.): Das große Lexikon Medien und Kommunikation. Kompendium interdisziplinärer Konzepte. Würzburg 2006.
- Peter Janich: Was ist Information? Kritik einer Legende. Suhrkamp, Frankfurt 2006. ISBN 3-518-58470-7
Външни препратки
[редактиране | редактиране на кода]- Руси Маринов, Информация, Университетски речник на Нов български университет
- Klassiker, Philosophie der Information
- Wolfgang Strauss, Nina Zschocke, Explore Information / Create KnowledgeАрхив на оригинала от 2022-10-06 в Wayback Machine., netzspannung.org, 2004
- Matthias Rauterberg, Über das Phänomen: „Information“ (PDF-Datei), 2005
- Stanislaw Lem, Die Megabitbombe, Von der Verschmutzung der Informationsumwelt und den ausfransenden Rändern des Wissens, telepolis, 12. September 2001
- Mario Behling, Strategien der Informationsverarbeitung und das veränderte Kommunikationsverhalten bei der Nutzung moderner Medienkanäle, 2006
- Jürgen Viestenz, 1998...2001 generalit.de
- www.ib.hu-berlin.de
- Information, Beats Biblionetz – Begriffe
- goethe.ira.uka.de Архив на оригинала от 2001-01-28 в Wayback Machine.
- www.lucent.com Архив на оригинала от 2006-07-18 в Wayback Machine.
- Information und Komplexität, Fakultät für Mathematik, Universität Bielefeld
- IEEE Information Theory Society
|