ინფორმაციის თეორია
ინფორმაციის თეორია — გამოყენებითი მათემატიკის დარგი. იგი წარმოიშვა ინფორმაციის შეკუმშვის ზომაზე და ხმაურიან არხზე ინფორმაციის საიმედოდ გადაცემის სისწრაფეზე ზღვრების დასადგენად. ინფორმაციის თეორია ძირითადად ინფორმაციის რაოდენობრივ ზომას შეისწავლის
ინფორმაციის თეორიის, როგორც მეცნიერების დასაწყისად კლაუდ შენონის 1948 წელს გამოქვეყნებული სტატია კომუნიკაციის მათემატიკური თეორია ითვლება. ამ სტატიაში არის შემოღებული მრავალი ძირითადი ცნება. მათ შორის ინფორმაციის რაოდენობის ერთეული ბიტი.
გამოყენება
[რედაქტირება | წყაროს რედაქტირება]ინფორმაციის თეორიას ბევრი თანამედროვე გამოყენება აქვს. იგი გამოიყენება:
- ინფორმაციის შეკუმშვისთვის დანაკარგების გარეშე (მაგალითად: ZIP ფაილების შესაქმნელად)
- ინფორმაციის შეკუმშვა დანაკარგებით (მაგალითად: MP3 მუსიკის, ან JPEG სურათების ფორმატები)
- ხმაურიან არხებზე ინფორმაციის გადაცემაში (მაგალითად: მობილური ტელეფონები, ინტერნეტის DSL ხაზები, და კოსმოსური ხომალდებიდან ინფორმაციის (სურათების) დაბრუნება დედამიწაზე)
ძირითადი პრინციპები
[რედაქტირება | წყაროს რედაქტირება]ინფორმაციის თეორიის ძირითადი გამოყენებაა სხვადასხვა სახის კოდირება. ინფორმაციის თეორიის გამოყენებით შეგვიძია ვიპოვოთ კოდირების გზები, რომლებიც საშუალებას მოგვცემს მოცემული ინფორმაცია ავსახოთ მაქსიმალურად შეკუმშულ კოდში და ასევე გავითვალისწინოთ ისიც, რომ გადაცემისას შეიძლება ნაწილი დაიკარგოს, ან შეიცვალოს. ამისათვის კოდში უნდა იყოს დამატებით სიმბოლოები, რომლებიც საშუალებას მოგვცემს არასწორად გადაცემული ინფორმაცია ამოვიცნოთ.
ორივე გამოყენების კარგი მაგალითია ჩვეულებრივი (მაგალითად ქართული) ენა. კავშირები, რომლებიც ხშირად გვხვდება - და,ან მოკლე სიტყვებით გამოითქმის, ხოლო შედარებით იშვიათი სიტყვები გრძელია. ეს საშუალებას გვაძლევს წინადადაბები უფრო მოკლე იყოს. ამავდროულად არ შეიძება ყველა სიტყვა მოკლე იყოს, რადგან ანბანში ასოების რაოდებნობა ამისთვის საკმარისი არ იქნებოდა. თან დაიკარგებოდა მეორე (შეცდომების შესწორების)ფუნქცია.
ამავდროულად თუ მე შემთხვევით დავწერე „ამავდრულად შმთვევთი დავერე“, უმეტესობა მაინც მიხვდება, რომ ამაში იგულისხმება „ამავდროულად შემთხვევით დავწერე“ და მე უბრალოდ შემეშალა წერისას. ეს იმიტომ ხდება, რომ სიტყვებში ბევრი ზედმეტი სიმბოლოა, რომელიც საშუალებას გვაძლევს შეცდომების შემთხვევაშიც კი ამოვიცნოთ საჭირო ინფორმაცია.
ასევე, დანაკარგების გარეშე შეკუმშვის კარგი მაგალითია მორზეს კოდი. აქ უფრო ხშირი ასოები წარმოდგენილია მოკლე კოდებით (მაგალითად ე მხოლოდ წერტილით), ხოლო შედარებით იშვიათი ასოები უფრო გრძელი კოდებით. ეს საშუელბას გვაძლევს სიტყვები მოკლე კოდებით გამოვსახოთ.
ინფორმაციის გაზომვა
[რედაქტირება | წყაროს რედაქტირება]სრული ინფორმაციისთვის ნახეთ: ინფორმაციის რაოდენობა
ინფორმაციას ზომავენ ბიტებში. ინფორმაციის რაოდენობა, რომელიც დაკავშირებულია ამა თუ იმ მოვლენის მოხდენასთან დამოკიდებულია მოცემული მოვლენის ალბათობაზე. რაც უფრო მცირეა მოვლენის ალბათობა, მით უფრო მეტ ინფორმაციას ვიგებთ, როდესაც მისი მოხდენის შესახებ ვიტყობთ. კერძოდ ინფორმაციის რაოდენობა ტოლია მოვლენის ალბათობის ლოგარითმის 1/2 ფუძით (ან იგივე უარყოფითი ლოგარითმის 2-ს ფუძით) .
იხილეთ აგრეთვე
[რედაქტირება | წყაროს რედაქტირება]ლიტერატურა
[რედაქტირება | წყაროს რედაქტირება]- Tom Siegfried, The Bit and the Pendulum, Wiley, 2000. ISBN 0-471-32174-5
- Charles Seife, Decoding The Universe, Viking, 2006. ISBN 0-670-03441-X
რესურსები ინტერნეტში
[რედაქტირება | წყაროს რედაქტირება]- alum.mit.edu[მკვდარი ბმული]
- ND.edu დაარქივებული 2009-03-27 საიტზე Wayback Machine.
- Chem.wisc.edu