ინფორმაციის თეორია

თავისუფალი ქართულენოვანი ენციკლოპედია ვიკიპედიიდან
გადასვლა: ნავიგაცია, ძიება

ინფორმაციის თეორიაგამოყენებითი მათემატიკის დარგი. იგი წარმოიშვა ინფორმაციის შეკუმშვის ზომაზე და ხმაურიან არხზე ინფორმაციის საიმედოდ გადაცემის სისწრაფეზე ზღვრების დასადგენად. ინფორმაციის თეორია ძირითადად ინფორმაციის რაოდენობრივ ზომას შეისწავლის

ინფორმაციის თეორიის, როგორც მეცნიერების დასაწყისად კლაუდ შენონის 1948 წელს გამოქვეყნებული სტატია კომუნიკაციის მათემატიკური თეორია ითვლება. ამ სტატიაში არის შემოღებული მრავალი ძირითადი ცნება. მათ შორის ინფორმაციის რაოდენობის ერთეული ბიტი.

გამოყენება[რედაქტირება]

ინფორმაციის თეორიას ბევრი თანამდროვე გამოყენება აქვს. იგი გამოიყენება:

ძირითადი პრინციპები[რედაქტირება]

ინფორმაციის თეორიის ძირითადი გამოყენებაა სხვადასხვა სახის კოდირება. ინფორმაციის თეორიის გამოყენებით შეგვიძია ვიპოვოთ კოდირების გზები, რომლებიც საშუალებას მოგვცემს მოცემული ინფორმაცია ავსახოთ მაქსიმალურად შეკუმშულ კოდში და ასევე გავითვალისწინოთ ისიც, რომ გადაცემისას შეიძლება ნაწილი დაიკარგოს, ან შეიცვალოს. ამისათვის კოდში უნდა იყოს დამატებით სიმბოლოები, რომლებიც საშუალებას მოგვცემს არასწორად გადაცემული ინფორმაცია ამოვიცნოთ.

ორივე გამოყენების კარგი მაგალითია ჩვეულებრივი (მაგალითად ქართული) ენა. კავშირები, რომლებიც ხშირად გვხვდება - და,ან მოკლე სიტყვებით გამოითქმის, ხოლო შედარებით იშვიათი სიტყვები გრძელია. ეს საშუალებას გვაძლევს წინადადაბები უფრო მოკლე იყოს. ამავდროულად არ შეიძება ყველა სიტყვა მოკლე იყოს, რადგან ანბანში ასოების რაოდებნობა ამისთვის საკმარისი არ იქნებოდა. თან დაიკარგებოდა მეორე (შეცდომების შესწორების)ფუნქცია.

ამავდროულად თუ მე შემთხვევით დავწერე „ამავდრულად შმთვევთი დავერე“, უმეტესობა მაინც მიხვდება, რომ ამაში იგულისხმება „ამავდროულად შემთხვევით დავწერე“ და მე უბრალოდ შემეშალა წერისას. ეს იმიტომ ხდება, რომ სიტყვებში ბევრი ზედმეტი სიმბოლოა, რომელიც საშუალებას გვაძლევს შეცდომების შემთხვევაშიც კი ამოვიცნოთ საჭირო ინფორმაცია.

ასევე, დანაკარგების გარეშე შეკუმშვის კარგი მაგალითია მორზეს კოდი. აქ უფრო ხშირი ასოები წარმოდგენილია მოკლე კოდებით (მაგალითად მხოლოდ წერტილით), ხოლო შედარებით იშვიათი ასოები უფრო გრძელი კოდებით. ეს საშუელბას გვაძლევს სიტყვები მოკლე კოდებით გამოვსახოთ.

ინფორმაციის გაზომვა[რედაქტირება]

სრული ინფორმაციისთვის ნახეთ: ინფორმაციის რაოდენობა

ინფორმაციას ზომავენ ბიტებში. ინფორმაციის რაოდენობა, რომელიც დაკავშირებულია ამა თუ იმ მოვლენის მოხდენასთან დამოკიდებულია მოცემული მოვლენის ალბათობაზე. რაც უფრო მცირეა მოვლენის ალბათობა, მით უფრო მეტ ინფორმაციას ვიგებთ, როდესაც მისი მოხდენის შესახებ ვიტყობთ. კერძოდ ინფორმაციის რაოდენობა ტოლია მოვლენის ალბათობის ლოგარითმის 1/2 ფუძით (ან იგივე უარყოფითი ლოგარითმის 2-ს ფუძით) I=log(p).

იხილეთ აგრეთვე[რედაქტირება]

ლიტერატურა[რედაქტირება]

რესურსები ინტერნეტში[რედაქტირება]