x1=c(47.35,29.26,52.14,32.15,40.86,19.18,27.23,25.60,54.14,26.72,38.84,32.99,32.95,21.69,27.90,56.70,37.69,39.94)
x2=c(7,5,10,6,4,5,4,6,9,5,2,7,4,3,5,1,8,6)
y=c(140,45,180,60,90,10,35,35,190,35,75,70,55,10,40,175,95,95)
terça-feira, 29 de maio de 2012
domingo, 15 de março de 2009
NOTAS CPE I - TARDE
NOTAS CPE I - MANHÃ
Desculpa a demora pessoal, mas aí estão as notas. As pessoas que tiveram média abaixo de 4 PODERÃO fazer a prova final. A data pode ser mudada pra quinta de manhã, mas pra isso preciso que todos me escrevam até amanhã no meu email. Alyssonx@gmail.com
Nota na final é quanto o aluno precisa tirar na final pra passar.
Nota na final é quanto o aluno precisa tirar na final pra passar.
sexta-feira, 13 de março de 2009
Notas Estatística Vital
quarta-feira, 11 de março de 2009
Notas de CPE - I Tarde
terça-feira, 1 de julho de 2008
Análise de regressão simples no R
Existe uma grande quantidade de análises que podem ser feitas encima de uma análise de regressão, como por exemplo uma análise de resíduos. Porém meu intuito aqui é só mostrar a parte introdutória.
Para iniciar precisamos de duas variáveis, uma dependente ou resposta e a outra independente ou explicativa, que chamaremos de x e y e que serão gerados de forma aleatória. São gerados 20 valores atravéz da distribuição uniforme entre 1 e 10 para x e entre 10 e 20 para y, após isso esses valores são ordenados em ordem crecente pelo comando sort().
set.seed(1)
x=sort(runif(20,1,10))
set.seed(2)
y=sort(runif(20,10,20))
Note que usei o comando set.seed antes de cada comando para que os valores aleatórios sejam os mesmo em qualquer lugar em que eles forem gerados, ou seja, os resultados daqui serão iguais pra qualquer pessoa que queira reproduzir o exemplo. Anyway, seguimos começando a análise onde a primeira coisa que olhamos é a correlação das variáveis.
cor(x,y)
[1] 0.982508
Veja que é uma ótima correlação. Em seguida fazemos a análise de regressão com o comando lm() de onde construímos nossa reta y=a+bx. Note que o y~x é a explicação de como deve ser a equação, ou seja, x explica y, ou ainda, y=x.
regressao=lm(y~x) summary(regressao)
Call: lm(formula = y ~ x) Residuals: Min 1Q Median 3Q Max -0.9339 -0.4361 0.1189 0.2904 0.9063 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 8.14171 0.33723 24.14 3.65e-15 *** x 1.16125 0.05188 22.38 1.37e-14 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.5823 on 18 degrees of freedom Multiple R-squared: 0.9653, Adjusted R-squared: 0.9634 F-statistic: 501.1 on 1 and 18 DF, p-value: 1.367e-14
Com isso nossa reta fica y= 8.14171 + 1.16125 x onde tanto o coeficiente angular quanto o linear são segnificantes à 1%. Maravilha de regressão! E pra completar o grafico de dispersão com a reta de regressão.
plot(x,y)
abline(regressao)
segunda-feira, 30 de junho de 2008
Guia cantado dos episódios de TNG
Sabem o que eu mais gosto deste vídeo? É saber que eu já assisti todos os episódios de TNG, HAHAHAHAAHAA, ai ai ah esquece... sim TNG = Star Trek: The Next Generation.
Assinar:
Postagens (Atom)