📋 RESUM: Regressió lineal
**Model simple:** Y_i = β₀ + β₁ x_i + ε_i, amb E[ε_i]=0, Var(ε_i)=σ² (i sovint normalitat).
**Mínims quadrats (OLS):** minimitza S=∑(y_i−b₀−b₁x_i)².
Fórmules:
• b₁ = S_xy / S_xx, on S_xx=∑(x_i−x̄)² i S_xy=∑(x_i−x̄)(y_i−ȳ)
• b₀ = ȳ − b₁ x̄
La recta passa per (x̄,ȳ) i ∑e_i=0.
**Variabilitat:** SST=∑(y_i−ȳ)² = SSR + SSE, amb SSE=∑e_i².
**R²:** R²=SSR/SST=1−SSE/SST (en regressió simple, R²=r²).
**Inferència (errors normals):** s²=SSE/(n−2).
Contrast H₀:β₁=0: T=b₁/(s/√S_xx) ~ t_{n−2}.
IC β₁: b₁ ± t_{α/2,n−2}·s/√S_xx.
**Predicció:** IC per la mitjana a x₀ i interval de predicció (més ample) amb termes 1/n i (x₀−x̄)²/S_xx.
**Diagnòstic:** residus (no linealitat, heterocedasticitat), punts influents (Cook), i en regressió múltiple, multicol·linealitat (VIF).
Desarrollo del tema
# REGRESSIÓ LINEAL
## 1. Introducció
La **regressió lineal** és una eina fonamental per modelitzar la relació entre una variable resposta $Y$ i una o més variables explicatives $X$. En el cas simple, la regressió lineal busca ajustar una recta que expliqui com varia $Y$ quan $X$ canvia.
Té aplicacions en ciències, economia, educació, enginyeria i en l’anàlisi de dades en general. Aquest tema presenta el model de regressió lineal simple, l’estimació per mínims quadrats, la interpretació dels paràmetres, la inferència (IC i contrastos), el coeficient de determinació i el diagnòstic bàsic.
**Interpretació:**
- $\beta_0$ és l’ordenada a l’origen (valor esperat de $Y$ quan $X=0$)
- $\beta_1$ és la pendent (canvi esperat en $Y$ per unitat d’increment en $X$)
## 3. Estimació per mínims quadrats
Definim els residus $e_i = y_i - (b_0+b_1x_i)$ i la suma de quadrats:
$$S(b_0,b_1)=\sum_{i=1}^n (y_i-b_0-b_1x_i)^2$$
Els estimadors de **mínims quadrats ordinaris** (OLS) són els que minimitzen $S$.
- La recta passa pel punt $(\bar x,\bar y)$.
- La suma de residus és zero: $\sum e_i=0$.
- Residus ortogonals a $x_i-\bar x$: $\sum (x_i-\bar x)e_i=0$.
**Mitjana resposta** a $x_0$:
$$\hat y_0=b_0+b_1x_0$$
IC per $\mathbb{E}[Y\mid X=x_0]$:
$$\hat y_0 \pm t_{\alpha/2,n-2}\,s\sqrt{\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}$$
Interval de **predicció** per un nou valor $Y_{nou}$ (més ample):
$$\hat y_0 \pm t_{\alpha/2,n-2}\,s\sqrt{1+\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}$$
## 6. Diagnòstic bàsic
### 6.1 Residus
Analitzar gràfics de residus vs ajustats:
- patró aleatori → model plausible
- forma de ventall → heterocedasticitat
- corba → no linealitat
### 6.2 Punts influents
Observacions amb gran leverage (x molt lluny de $\bar x$) poden influir fortament en la pendent.
Indicadors:
- Leverage $h_{ii}$
- Distància de Cook
### 6.3 Multicol·linealitat (en regressió múltiple)
En regressió múltiple ($Y=\beta_0+\beta_1X_1+\cdots$) pot aparèixer col·linealitat entre predictors; s’avalua amb VIF.
## 7. Regressió i correlació
- **Correlació** mesura associació lineal simètrica.
- **Regressió** modelitza una direcció (explicar $Y$ a partir de $X$).
Compareu amb $t_{0.025,10}\approx 2.228$: rebutgem $H_0$ al 5%.
## 9. Didàctica
- Fer primer ajust visual amb núvol de punts
- Interpretar pendent i intercept en context
- Treballar residus per detectar problemes del model
- Conscienciar sobre causalitat i variables confusores
## 10. Conclusions
La regressió lineal simple ajusta una relació lineal entre variables mitjançant mínims quadrats. Les fórmules explícites de $b_0$ i $b_1$ connecten amb covariància i variància. El model permet quantificar l’ajust (R²), fer inferència sobre la pendent i construir intervals de confiança i predicció. El diagnòstic de residus és essencial per validar les hipòtesis del model.
Estudia este tema con OPOSGRATIS
Has leído el desarrollo del tema. Para consolidar tu aprendizaje, estudia las flashcards asociadas con repetición espaciada (algoritmo SM-2), realiza simulacros de examen, y practica el supuesto práctico. Todo gratis y sin registro previo.