Линеарна регресија: Разлика помеѓу преработките

[проверена преработка][проверена преработка]
Избришана содржина Додадена содржина
Нема опис на уредувањето
с Правописна исправка, replaced: прв пат → првпат using AWB
Ред 2:
'''Линеарната регресија''' е најкористена од сите статистички техники. Таа ги проучува линеарните (праволиниските) врски помеѓу варијаблите,обично под претпоставка на нормално распределени грешки.
 
Поимот регресија станал применуван како предмет на моделите на линеарната [[статистика]] кога бил најпрвин проучуван при крајот на 19 век од страна на научникот [[Францис Галтон]]. Галтон бил самоук [[природонаучник]], [[антрополог]], [[астроном]] и [[статистичар]]. Бил познат по неговите изтражувања и по неговата книга, бестселер, за тоа како да преживееш во дивината. Тој бил пионер во примената на статистичките методи за мерење.<ref>http://www.psych.utah.edu/gordon/Classes/Psy4905Docs/PsychHistory/Cards/Galton.html</ref>.За прв патпрвпат го споменал поимот [[регресија]] како „регресија кон просечност“ при објаснувањето неговиот феномен за „ таткото и синот’’ (ако височината на таткото е Х стандардни отстапувања од средната вредност во [[популација]]та , тогаш треба да се предвиди дека висината на синот ќе биде rх(r по х) стандардни отстапувања на популација).
 
[[Податотека:220px-Francis Galton 1850s.jpg|рамка|десно|Францис Галтон]]
 
'''Зошто ние најчесто претпоставуваме дека врската меѓу промелнивите е линеарна?'''<ref>http://people.duke.edu/~rnau/regintro.htm</ref>
Ред 11:
# Таа е математички прилагодена : таа подразбира дека проценките за оптималниот коефициент на [[линеарниот модел]] се оние кои го минимизираат значењето на квадратната грешка (која е лесно преслетлива) и поради тоа што таа го оправдува користењето на [[статистички тест]]ови врз основа на нормалното „семејство“ на тестови (ова семејство ги вклучува [[Т-тест]],[[Ф-тест]] и [[Хи2-тест]]).
# Дури и ако „вистинската“ грешка на процесот не е нормална, во однос на оригиналните единици на податоците, можно е да се трансформираат податоците со цел грешките од вашиот предвиден модел да се приближно точни.
 
 
 
'''Во [[статистика]]та''', линеарната регресија представува пристап за моделирање на врската меѓу [[променлива]]та y и една или повеќе промелниви х. Кога имаме една променлива х тогаш станва збор за [[проста линеарна регресија]]. Ако има повеќе од една променлива тогаш станува збор за [[повеќекратна регресија]].
Ред 22 ⟶ 20:
[[Податотека:Linear regression.png|рамка|центар|Пример за проста линеарна регресија]]
 
=== Вовед во линеарна регресија ===
 
Во даден збир на податоци <math>{\{y_i,\, x_{i1}, \ldots, x_{ip}\}_{i=1}^n}</math> од n [[статистички единици]], моделот на линеарна регресија тргнува од претпоставката дека релацијата меѓу зависната варијабла yi и р-вредноста на регресорот xi е линеарна.
Оваа врска е моделирана преку грешката εi [[сличајна променлива]] која додава форма на линеарниот однос меѓу зависната варијабла и [[регресор]]ите.
 
Овој модел ја има следната форма:
 
<math>{y_i = \beta_1 x_{i1} + \cdots + \beta_p x_{ip} + \varepsilon_i = \mathbf{x}^{\rm T}_i\boldsymbol\beta + \varepsilon_i, \qquad i = 1, \ldots, n,}</math>
 
често овие n равенки се поврзани заедно и напишани во [[вектор]] со ваква форма: <math>{\mathbf{y} = \mathbf{X}\boldsymbol\beta + \boldsymbol\varepsilon, \,}</math>
 
каде што :
 
<math>{\mathbf{y} = \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix}, \quad \mathbf{X} = \begin{pmatrix} \mathbf{x}^{\rm T}_1 \\ \mathbf{x}^{\rm T}_2 \\ \vdots \\ \mathbf{x}^{\rm T}_n \end{pmatrix} = \begin{pmatrix} x_{11} & \cdots & x_{1p} \\ x_{21} & \cdots & x_{2p} \\ \vdots & \ddots & \vdots \\ x_{n1} & \cdots & x_{np} \end{pmatrix}, \quad \boldsymbol\beta = \begin{pmatrix} \beta_1 \\ \vdots \\ \beta_p \end{pmatrix}, \quad \boldsymbol\varepsilon = \begin{pmatrix} \varepsilon_1 \\ \varepsilon_2 \\ \vdots \\ \varepsilon_n \end{pmatrix}.}</math>
 
 
'''Неколку забелешки во врска со терминологијата и општата употреба'''
Ред 59 ⟶ 56:
 
=== Толкување ===
 
 
'''Моделот на линеарна регреција''' може да биде користен за да ја индентификува врската меѓу еден индицатор, променливата xi и променливата y кога сите други променливи се во моделот фиксни. Особено, интерпретацијата на βi прави промена во y за една единица промена на xi кога другите променливи се фиксни , што представува очекувана вредност на делумниот дериват на y во однос на хi. Ова понекогаш се нарекува уникатен ефект на хi за y.
Ред 73 ⟶ 69:
Некои од позначајните методи на проценка на линеарната регресија се објаснети во продолжение:
 
'''а) Проценка преку методот на најмали квадрати и сродни техники'''
 
# Обични [[најмали квадрати]] (OLS) е наједноставниот и според тоа, најкористениот метод на проденка. Концептуално е едноставен и директен, јасен. ОЛС методот најчесто е користен за [[анализа]] на податоци добиени од [[експеримент]]и или набљудувања. Овој метод го минимизира збирот на квадратните резидуали и ја пресметува вредноста на непознатиот параметер β <math>{\hat{\boldsymbol\beta} = (\mathbf{X}^{\rm T}\mathbf{X})^{-1} \mathbf{X}^{\rm T}\mathbf{y} = \big(\, \tfrac{1}{n}{\textstyle\sum} \mathbf{x}_i \mathbf{x}^{\rm T}_i \,\big)^{-1} \big(\, \tfrac{1}{n}{\textstyle\sum} \mathbf{x}_i y_i \,\big).}</math>
Ред 79 ⟶ 75:
#Регресија на инструментални варијабли (IV) може да се користи кога регресорите се поврзани со грешките. Во овој случај ни требаат некои помошни инструментални променливи zi за E[ziεi] = 0 . Ако z е матрица на иструментите, тогаш формулата може да биде дадена во ова форма: <math>{\hat{\boldsymbol\beta} = (\mathbf{X}^{\rm T}\mathbf{Z}(\mathbf{Z}^{\rm T}\mathbf{Z})^{-1}\mathbf{Z}^{\rm T}\mathbf{X})^{-1}\mathbf{X}^{\rm T}\mathbf{Z}(\mathbf{Z}^{\rm T}\mathbf{Z})^{-1}\mathbf{Z}^{\rm T}\mathbf{y}}</math>
#Оптимални инструменти
#Вкупни најмали квадрати (TLS)
 
'''б) Проценка на максимална веројатност и сродни техники'''
Ред 89 ⟶ 83:
# Адаптивна проценка
 
'''в) Други методи на проценка'''
 
'''в) Други методи на проценка'''
 
# Квантил регресија
# Мешани модели
# Регресија на главни состојки
 
 
== ''' Наводи ''' ==