Beg'uborlik - Perplexity

Yilda axborot nazariyasi, hayrat bu qanchalik yaxshi ekanligini o'lchaydigan a ehtimollik taqsimoti yoki ehtimollik modeli namunani taxmin qiladi. Bu ehtimollik modellarini taqqoslash uchun ishlatilishi mumkin. Kam chalkashlik ehtimollik taqsimoti namunani bashorat qilishda yaxshi ekanligini ko'rsatadi.

Ehtimollar taqsimotining murakkabligi

Bezovta PP diskret ehtimollik taqsimoti p sifatida belgilanadi

qayerda H(p) bo'ladi entropiya (bitda) taqsimot va x voqealar doirasi. (Baza 2 bo'lishi shart emas: entropiya va eksponentatsiya bir xil baz.) Ushbu o'lchov ba'zi domenlarda (order-1 true) xilma-xillik.

A ning chalkashligi tasodifiy o'zgaruvchi X taqsimotning mumkin bo'lgan qiymatlari bo'yicha beparvoligi sifatida aniqlanishi mumkin x.

Maxsus holatda qaerda p yarmarka modellari k- yonma-yon o'lish (bir xil taqsimot k diskret hodisalar), uning chalkashligi k. Bezovta qiladigan tasodifiy o'zgaruvchi k yarmarka kabi noaniqlikka ega k- ikki tomonlama o'lim va biri "k- tasodifiy o'zgaruvchining qiymati haqida har doim hayron bo'ldim. (Agar bu adolatli bo'lmasa k- yonbosh o'lim, ko'proq k qiymatlari mumkin bo'ladi, ammo umumiy noaniqlik bundan kattaroq emas, chunki bu qiymatlarning ba'zilari 1 / dan katta ehtimolga ega bo'ladik, yig'ish paytida umumiy qiymatni kamaytirish.)

Ba'zida chalkashlik bashorat qilish muammosi qanchalik qiyinligini o'lchaydigan o'lchov sifatida ishlatiladi. Bu har doim ham to'g'ri emas. Agar sizda ikkita tanlov mavjud bo'lsa, ulardan biri 0,9 ehtimollik bilan bo'lsa, unda sizning taxminiy strategiyangiz optimal strategiyadan foydalangan holda 90 foizni tashkil qiladi.-0.9 jurnal2 0,9 - 0,1 log2 0.1= 1.38. Beg'uborlikning teskari tomoni (adolatli k tomonlama o'lim holatida to'g'ri taxmin qilish ehtimolini bildiradi), 0,9 emas, balki 1 / 1,38 = 0,72 ga teng.

Beg'uborlik - bu aniqroq aniqlangan miqdor bo'lgan entropiyaning eksponentatsiyasi, entropiya - bu tasodifiy o'zgaruvchining natijasini kodlash uchun zarur bo'lgan bitlar sonining kutilgan yoki "o'rtacha" uzunligini nazariy maqbul o'zgaruvchidan foydalanib ko'ring. kod, qarama-qarshi bo'lib, uni ekvivalent ravishda kutilgan deb hisoblash mumkin ma `lumot tasodifiy o'zgaruvchining natijasini o'rganishdan daromad.

Ehtimollar modelining chalkashligi

Noma'lum ehtimollik taqsimotining modeli p, olingan namunalar asosida taklif qilinishi mumkin p. Tavsiya etilgan ehtimollik modeli berilgan q, kimdir baholashi mumkin q alohida test namunasini qanchalik yaxshi bashorat qilishini so'rab x1, x2, ..., xN shuningdek, dan olingan p. Modelning chalkashligi q sifatida belgilanadi

qayerda odatdagidek 2. Yaxshi modellar q noma'lum taqsimot p yuqori ehtimolliklarni tayinlashga moyil bo'ladi q(xmen) sinov voqealariga. Shunday qilib, ular kamroq chalkashliklarga ega: ular sinov namunasidan kamroq hayratda.

Yuqoridagi ko'rsatkich sinov hodisasini namoyish qilish uchun zarur bo'lgan bitlarning o'rtacha soni sifatida qaralishi mumkin xmen agar kimdir unga asoslangan optimal kodni ishlatsa q. Xayriyatki past bo'lgan modellar sinov namunasini siqib chiqarishda yaxshiroq ishlaydi, chunki har bir sinov elementiga o'rtacha bir necha bit kerak bo'ladi q(xmen) yuqori bo'lishga intiladi.

Eksponent shuningdek, a deb qaralishi mumkin o'zaro faoliyat entropiya,

qayerda belgisini bildiradi empirik taqsimot sinov namunasining (ya'ni, agar x paydo bo'ldi n o'lchamdagi sinov namunasidagi vaqt N).

Bir so'z uchun beparvolik

Yilda tabiiy tilni qayta ishlash, chalkashlik - bu baholash usuli til modellari. Til modeli - bu butun jumlalar yoki matnlar bo'yicha ehtimollik taqsimoti.

Ehtimollik modeli uchun chalkashlik ta'rifidan foydalanib, masalan, o'rtacha gapni topish mumkin xmen sinov namunasida 190 bit bilan kodlash mumkin edi (ya'ni, test jumlalari o'rtacha log-ehtimolligi -190 ga teng). Bu juda katta modelni 2-chi chalkashlikka olib keladi190 bir jumla uchun. Biroq, gapning davomiyligini normallashtirish va bitta so'z uchun bit sonini hisobga olish odatiy holdir. Shunday qilib, agar test namunasining jumlalari jami 1000 so'zdan iborat bo'lsa va so'z uchun jami 7,95 bitdan foydalanib kodlash mumkin bo'lsa, modelning 2-chi chalkashligi haqida xabar berish mumkin.7.95 = 247 bir so'z uchun. Boshqacha qilib aytganda, model har bir so'z uchun 247 imkoniyat orasida bir xil va mustaqil ravishda tanlashi kerak bo'lganidek, test ma'lumotlari bilan aralashib ketgan.

Saytida chop etilgan eng past chalkashlik Jigarrang korpus (1 million so'z Amerika Ingliz tili 1992 yildagi holat bo'yicha haqiqatan ham har bir so'z uchun 247 tani tashkil etadi, bu jurnalning o'zaro faoliyat entropiyasiga to'g'ri keladi.2Bir so'z uchun 247 = 7,95 bit yoki bitta harf uchun 1,75 bit [1] yordamida trigram model. Ko'pincha ko'proq ixtisoslashgan mutaxassislarga qaraganda pastroq chalkashliklarga erishish mumkin korpuslar, chunki ular ko'proq taxmin qilinmoqda.

Shunga qaramay, shunchaki Braun korpusidagi so'z "the" so'zi ekanligini taxmin qilish 1/247 = 0,4 foiz emas, balki 7 foiz aniqlikka ega bo'ladi, chunki bashoratning o'lchovi sifatida hayratdan soddalik bilan foydalanish odamni ishonishiga olib kelishi mumkin . Ushbu taxmin trigramma statistikasi asosida emas, Braun korpusining unigram statistikasiga asoslanadi, bu esa chalkashlik so'zini keltirib chiqardi 247. Trigramma statistikasidan foydalanish to'g'ri taxmin qilish imkoniyatini yanada yaxshilaydi.

Adabiyotlar

  1. ^ Braun, Piter F.; va boshq. (1992 yil mart). "Ingliz tili entropiyasining yuqori chegarasini taxmin qilish" (PDF). Hisoblash lingvistikasi. 18 (1). Olingan 2007-02-07.