题目1
设总体 $X$ 的概率分布为
$X$ | 1 | 2 | 3 |
---|---|---|---|
$P$ | $1-\theta$ | $\theta-\theta^2$ | $\theta^2$ |
其中参数 $\theta \in(0,1)$ 末知, 以 $N_{i}$ 表示来自 总体 $X$ 的简单随机样本 (样本容量为 $n$ ) 中等于 $i$ 的个数 $(i=1,2,3)$, 试求常数 $a_{1}, a_{2}, a_{3}$, 使 $T=\sum_{i=1}^{3} a_{i} N_{i}$ 为 $\theta$ 的无偏估计量, 并求 $T$ 的方差.
解答部分
解:
因为 $N_{1} \sim B(n, 1-\theta), N_{2} \sim B(n, \theta-\theta^{2}), N_{3} \sim B(n, \theta^{2})$ ,则:
\[\begin{aligned} & E T=E\left(\sum_{i=1}^{3} a_{i} N_{i}\right) \\=& a_{1} E N_{1}+a_{2} E N_{2}+a_{3} E N_{3} \\=& a_{1} n(1-\theta)+a_{2} n\left(\theta-\theta^{2}\right)+a_{3} n \theta^{2} \\=& n a_{1}+n\left(a_{2}-a_{1}\right) \theta+n\left(a_{3}-a_{2}\right) \theta^{2} \end{aligned}\]由 $T$ 是 $\theta$ 的无偏估计量, 可知, $E T=\theta$,
则 \(\left\{\begin{array}{l}n a_{1}=0, \\ n\left(a_{2}-a_{1}\right)=1, \text { 即 } \\ n\left(a_{3}-a_{2}\right)=0,\end{array}\left\{\begin{array}{l}a_{1}=0, \\ a_{2}=\frac{1}{n}, \\ a_{3}=\frac{1}{n} .\end{array}\right.\right.\)
故, $T=0 \times N_{1}+\frac{1}{n} \times N_{2}+\frac{1}{n} \times N_{3}$,
则有: \(T=\frac{1}{n}\left(N_{2}+N_{3}\right)=\frac{1}{n}\left(n-N_{1}\right) .\) 故: \(\begin{aligned} D T &=D\left[\frac{1}{n}\left(n-N_{1}\right)\right]=\frac{1}{n^{2}} D N_{1} \\ &=\frac{1}{n^{2}} \cdot n \cdot(1-\theta) \cdot \theta \\ &=\frac{1}{n} \theta(1-\theta) . \end{aligned}\)
题目2
设总体 $X$ 的分布函数为
\(F(x ; \theta)=\left\{\begin{array}{ll} 1-\mathrm{e}^{-\frac{x^{2}}{\theta}}, & x \geqslant 0, \\ 0, & x<0, \end{array}\right.\) 其中, $\theta$ 是末知参数且大于零. $X_{1}, X_{2}, \cdots$, $X_{n}$ 为来自总体 $X$ 的简单随机样本。
(1) 求 $E X$ 与 $E X^{2}$; (2) 求 $\theta$ 的最大似然估计量 $\hat{\theta}_{n}$;
(3)是否存在实数a,使得对任意$\varepsilon>0$,都有
\[\lim_{n\rightarrow \infty} P\left\{\left|\hat{\theta}_{n}-a\right| \geqslant \varepsilon\right\}=0\](1)解答
解 : (1) 总体 $X$ 的概率密度为
\(\begin{array}{c} f(x ; \theta)=\left\{\begin{array}{ll} \frac{2 x}{\theta} \mathrm{e}^{-\frac{x^{2}}{\theta}}, & x \geqslant 0, \\ 0, & x<0 . \end{array}\right. \\ \end{array}\) 则有:
\[\begin{aligned} E X&=\int_{0}^{+\infty} x \cdot \frac{2 x}{\theta} \mathrm{e}^{-\frac{x^{2}}{\theta}} \mathrm{d} x\\ &=-\int_{0}^{+\infty} x \mathrm{~d} \mathrm{e}^{-\frac{x^{2}}{\theta}} \\ &=\int_{0}^{+\infty} \mathrm{e}^{-\frac{x^{2}}{\theta}} \mathrm{d} x\\ &=\frac{\sqrt{\pi \theta}}{2} \cdot \frac{1}{\sqrt{\pi \theta}} \int_{-\infty}^{+\infty} \mathrm{e}^{-\frac{x^{2}}{\theta}} \mathrm{d} x \\ &=\frac{\sqrt{\pi \theta}}{2}, \\ \\ E X^{2}&=\int_{0}^{+\infty} x^{2} \cdot \frac{2 x}{\theta} \mathrm{e}^{-\frac{x^{2}}{\theta}} \mathrm{d} x\\ &=\theta \int_{0}^{+\infty} u \mathrm{e}^{-u} \mathrm{~d} u \\ &=\theta . \end{aligned}\](2)解答
(2) 设 $x_{1}, x_{2}, \cdots, x_{n}$ 为样本观测值, 由题意得,似然函数为:
\[\begin{array}{l} L(\theta)=\prod_{i=1}^{n} f\left(x_{i}\right)= \left\{\begin{array}{ll} \frac{2^{n} x_{1} x_{2} \cdots x_{n}}{\theta^{n}} \mathrm{e}^{-\frac{1}{\theta} \sum_{i=1}^{n} x_{i}^{2}}, & x_{1}, x_{2}, \cdots, x_{n}>0, \\ 0, & \text { others } \end{array}\right. \end{array}\]则, 当$x_{1}, x_{2}, \cdots, x_{n}>0$ 时 :
\(\ln L(\theta)=n \ln 2+ \sum_{i=1}^{n} \ln x_{i}-n \ln \theta-\frac{1}{\theta} \sum_{i=1}^{n} x_{i}^{2} .\) 再由$\frac{\mathrm{d} \ln L(\theta)}{\mathrm{d} \theta}=-\frac{n}{\theta}+\frac{1}{\theta^{2}} \sum_{i=1}^{n} x_{i}^{2}=0$ 可得,$ \theta$ 的最大似然估计值为: \(\begin{array}{l} \\ \hat{\theta}_{n}=\frac{1}{n} \sum_{i=1}^{n} x_{i}^{2} . \end{array}\)
从而,$\theta$ 的最大似然估计量为
\[\hat{\theta}_{n}=\frac{1}{n} \sum_{i=1}^{n} X_{i}^{2} .\](3)解答
存在, $a=\theta$.
因为 ${X_{n}^{2}}$ 是独立同分布的随机变量序列, 且 $E X_{1}^{2}=\theta<+\infty$, 则,根据辛钦大数定律,当 $n \rightarrow \infty$ 时,
\[\hat{\theta}_{n}=\frac{1}{n} \sum_{i=1}^{n} X_{i}^{2}\]依概率收敛于 $E X_{1}^{2}$ ,即 $\theta $ .
所以, 对任意 $\varepsilon>0$ ,都有:
\[\lim _{n \rightarrow \infty} P\left\{\left|\hat{\theta}_{n}-\theta\right| \geqslant \varepsilon\right\}=0 .\]