W=w1 w2……wm是字串S=c1 c2……cn的一种切分结果.wi 是一个词,P(wi)表示wi的出现的概率.在大规模语料库训练的基础上,根据大数定理[8],即:在大样本统计的前提下,样本的频率接近于其概率值.所
来源:学生作业帮助网 编辑:作业帮 时间:2024/07/14 02:10:16
![W=w1 w2……wm是字串S=c1 c2……cn的一种切分结果.wi 是一个词,P(wi)表示wi的出现的概率.在大规模语料库训练的基础上,根据大数定理[8],即:在大样本统计的前提下,样本的频率接近于其概率值.所](/uploads/image/z/14851191-39-1.jpg?t=W%3Dw1+w2%E2%80%A6%E2%80%A6wm%E6%98%AF%E5%AD%97%E4%B8%B2S%3Dc1+c2%E2%80%A6%E2%80%A6cn%E7%9A%84%E4%B8%80%E7%A7%8D%E5%88%87%E5%88%86%E7%BB%93%E6%9E%9C.wi+%E6%98%AF%E4%B8%80%E4%B8%AA%E8%AF%8D%2CP%28wi%29%E8%A1%A8%E7%A4%BAwi%E7%9A%84%E5%87%BA%E7%8E%B0%E7%9A%84%E6%A6%82%E7%8E%87.%E5%9C%A8%E5%A4%A7%E8%A7%84%E6%A8%A1%E8%AF%AD%E6%96%99%E5%BA%93%E8%AE%AD%E7%BB%83%E7%9A%84%E5%9F%BA%E7%A1%80%E4%B8%8A%2C%E6%A0%B9%E6%8D%AE%E5%A4%A7%E6%95%B0%E5%AE%9A%E7%90%86%5B8%5D%2C%E5%8D%B3%EF%BC%9A%E5%9C%A8%E5%A4%A7%E6%A0%B7%E6%9C%AC%E7%BB%9F%E8%AE%A1%E7%9A%84%E5%89%8D%E6%8F%90%E4%B8%8B%2C%E6%A0%B7%E6%9C%AC%E7%9A%84%E9%A2%91%E7%8E%87%E6%8E%A5%E8%BF%91%E4%BA%8E%E5%85%B6%E6%A6%82%E7%8E%87%E5%80%BC.%E6%89%80)
W=w1 w2……wm是字串S=c1 c2……cn的一种切分结果.wi 是一个词,P(wi)表示wi的出现的概率.在大规模语料库训练的基础上,根据大数定理[8],即:在大样本统计的前提下,样本的频率接近于其概率值.所
W=w1 w2……wm是字串S=c1 c2……cn的一种切分结果.wi 是一个词,P(wi)表示wi的出现的概率.在大规模语料库训练的基础上,根据大数定理[8],即:在大样本统计的前提下,样本的频率接近于其概率值.所以P(wi)的极大似然估计值[9]等于词频,有:
P(wi) ≈ki /(k1+k2+k3+...+km)
(其中ki为wi在训练样本中出现的次数)…………………………②
----------------------------
谁能给讲讲啊,我看不懂哦
P(wi) ≈ki /(k1+k2+k3+...+km)
这是为什么啊?
W=w1 w2……wm是字串S=c1 c2……cn的一种切分结果.wi 是一个词,P(wi)表示wi的出现的概率.在大规模语料库训练的基础上,根据大数定理[8],即:在大样本统计的前提下,样本的频率接近于其概率值.所
哪句话看不懂?在我看来书上已经讲的很清楚了,看不懂就联系前后去理解,如果某句话看不懂可以提出来,如果都看不懂谁也没办法.
补充,这就是根据前一句话“在大规模语料库训练的基础上,根据大数定理[8],即:在大样本统计的前提下,样本的频率接近于其概率值.所以P(wi)的极大似然估计值[9]等于词频”来的啊,
ki是wi在样本中出现的次数,其他的k1-km就是别的词出现的次数了,相加就是整个里面有多少词嘛.wi出现次数除以总词汇量就是wi的频率呀.
wefd