English:
In probability theory and statistics, maximum likelihood estimation (MLE) is a method used to estimate the parameters of a statistical model. The goal of MLE is to find the values of the parameters that make the observed data most probable under the assumed model.
Definition of Maximum Likelihood
Given a set of observed data points and a probability model with parameters , the likelihood function represents the probability of the observed data given the parameters :
The maximum likelihood estimator is the value of that maximizes this likelihood function:
This means is chosen so that the observed data is as likely as possible under the model.
Key Concepts in Maximum Likelihood Estimation (MLE)
- Likelihood Function: The function that expresses how likely it is to observe the data for different parameter values.
- Log-Likelihood: It is often more convenient to work with the logarithm of the likelihood function (log-likelihood), which turns the product of probabilities into a sum and simplifies calculations, especially in cases with large data sets.
- Optimization: MLE involves finding the maximum of the likelihood (or log-likelihood) function, which may require optimization techniques, such as gradient ascent or numerical methods.
Example of Maximum Likelihood Estimation
For example, if we assume a set of data follows a normal distribution with mean and variance , the MLE would involve finding the values of and that make the observed data most likely. For this case, is estimated as the sample mean, and as the sample variance.
Applications of Maximum Likelihood
MLE is widely used in statistics, machine learning, and econometrics for parameter estimation, model fitting, and making inferences about population parameters from sample data.
---
Vietnamese:
Trong lý thuyết xác suất và thống kê, ước lượng hợp lý cực đại (maximum likelihood estimation - MLE) là một phương pháp được sử dụng để ước lượng các tham số của một mô hình thống kê. Mục tiêu của MLE là tìm các giá trị của các tham số sao cho dữ liệu quan sát được có xác suất cao nhất dưới mô hình giả định.
Định nghĩa của Ước lượng Hợp lý Cực đại
Cho một tập hợp các điểm dữ liệu quan sát được và một mô hình xác suất với các tham số , hàm likelihood biểu diễn xác suất của dữ liệu quan sát được khi biết các tham số :
Ước lượng hợp lý cực đại là giá trị của tối đa hóa hàm likelihood này:
Điều này có nghĩa là được chọn sao cho dữ liệu quan sát được có xác suất lớn nhất dưới mô hình đã chọn.
Các Khái niệm Chính trong Ước lượng Hợp lý Cực đại (MLE)
- Hàm Likelihood: Hàm thể hiện khả năng quan sát được dữ liệu cho các giá trị tham số khác nhau.
- Log-Likelihood: Thường thuận tiện hơn khi làm việc với logarithm của hàm likelihood (log-likelihood), giúp biến tích các xác suất thành tổng và đơn giản hóa các phép tính, đặc biệt trong trường hợp có tập dữ liệu lớn.
- Tối ưu hóa: MLE bao gồm việc tìm giá trị cực đại của hàm likelihood (hoặc log-likelihood), có thể yêu cầu các kỹ thuật tối ưu hóa, như gradient ascent hoặc các phương pháp số học.
Ví dụ về Ước lượng Hợp lý Cực đại
Chẳng hạn, nếu chúng ta giả định rằng một tập dữ liệu tuân theo phân phối chuẩn với trung bình và phương sai , thì MLE sẽ tìm các giá trị của và để làm cho dữ liệu quan sát được có xác suất cao nhất. Trong trường hợp này, được ước lượng là trung bình mẫu và là phương sai mẫu.
Ứng dụng của Ước lượng Hợp lý Cực đại
MLE được sử dụng rộng rãi trong thống kê, học máy và kinh tế lượng để ước lượng tham số, hiệu chỉnh mô hình và suy luận về các tham số của quần thể từ dữ liệu mẫu.