Corelația și regresia sunt cele două analize bazate pe distribuția multivariată. O distribuție multivariată este descrisă ca o distribuție a mai multor variabile. Corelație este descrisă ca analiza care ne permite să cunoaștem asocierea sau absența relației dintre două variabile „x” și „y”. La celălalt capăt, Regresia analiza, prezice valoarea variabilei dependente pe baza valorii cunoscute a variabilei independente, presupunând că relația matematică medie între două sau mai multe variabile.
Diferența dintre corelație și regresie este una dintre întrebările frecvent adresate în interviuri. Mai mult, mulți oameni suferă de ambiguitate în înțelegerea acestor două. Deci, citiți complet acest articol pentru a înțelege clar aceste două.
Conținut: corelație vs regresie
Diagramă de comparație
Baza pentru comparație | Corelație | Regresia |
---|---|---|
Sens | Corelația este o măsură statistică care determină corelația sau asocierea a două variabile. | Regresia descrie modul în care o variabilă independentă este legată numeric de variabila dependentă. |
Utilizare | Pentru a reprezenta relația liniară între două variabile. | Pentru a se potrivi celei mai bune linii și a estima o variabilă pe baza unei alte variabile. |
Variabile dependente și independente | Nicio diferenta | Ambele variabile sunt diferite. |
Indică | Coeficientul de corelație indică măsura în care două variabile se mișcă împreună. | Regresia indică impactul unei modificări de unitate a variabilei cunoscute (x) asupra variabilei estimate (y). |
Obiectiv | Pentru a găsi o valoare numerică care exprimă relația dintre variabile. | Estimarea valorilor variabilei aleatoare pe baza valorilor variabilei fixe. |
Definiţia corelation
Termenul corelație este o combinație de două cuvinte „Co” (împreună) și relație (conexiune) între două cantități. Corelația este atunci când, la momentul studiului a două variabile, se observă că o modificare de unitate a unei variabile este represaliată printr-o modificare echivalentă a unei alte variabile, adică directă sau indirectă. Sau se spune că variabilele sunt necorelate atunci când mișcarea într-o variabilă nu echivalează cu nicio mișcare într-o altă variabilă într-o direcție specifică. Este o tehnică statistică care reprezintă puterea conexiunii dintre perechile de variabile.
Corelația poate fi pozitivă sau negativă. Când cele două variabile se mișcă în aceeași direcție, adică o creștere a unei variabile va avea ca rezultat creșterea corespunzătoare a unei alte variabile și invers, atunci variabilele sunt considerate a fi corelate pozitiv. De exemplu: profit și investiții.
Dimpotrivă, atunci când cele două variabile se deplasează în direcții diferite, în așa fel încât o creștere a unei variabile va avea ca rezultat o scădere a unei alte variabile și invers, această situație este cunoscută sub numele de corelație negativă. De exemplu: Prețul și cererea unui produs.
Măsurile de corelare sunt date după cum urmează:
- Coeficientul de corelație produs-moment al lui Karl Pearson
- Coeficientul de corelare a rangului lui Spearman
- Diagrama de dispersie
- Coeficientul abaterilor concurente
Definiţia Regression
O tehnică statistică de estimare a modificării variabilei dependente metrice din cauza modificării uneia sau mai multor variabile independente, pe baza relației matematice medii dintre două sau mai multe variabile este cunoscută sub numele de regresie. Joacă un rol semnificativ în multe activități umane, deoarece este un instrument puternic și flexibil care obișnuia să prognozeze evenimentele trecute, prezente sau viitoare pe baza evenimentelor trecute sau prezente. De exemplu: Pe baza înregistrărilor anterioare, profitul viitor al unei afaceri poate fi estimat.
Într-o regresie liniară simplă, există două variabile x și y, în care y depinde de x sau să spunem influențat de x. Aici y se numește dependentă sau variabilă de criteriu și x este variabilă independentă sau predictoare. Linia de regresie a lui y pe x este exprimată astfel:
y = a + bx
unde, a = constantă,
b = coeficient de regresie,
În această ecuație, a și b sunt cei doi parametri de regresie.
Diferențele cheie între corelație și regresie
Punctele de mai jos explică diferența dintre corelație și regresie în detaliu:
- O măsură statistică care determină corelația sau asocierea a două mărimi este cunoscută sub numele de corelație. Regresia descrie modul în care o variabilă independentă este legată numeric de variabila dependentă.
- Corelația este utilizată pentru a reprezenta relația liniară dintre două variabile. Dimpotrivă, regresia este utilizată pentru a se potrivi cu cea mai bună linie și pentru a estima o variabilă pe baza unei alte variabile.
- În corelație, nu există nicio diferență între variabilele dependente și independente, adică corelația dintre x și y este similară cu y și x. În schimb, regresia lui y pe x este diferită de x pe y.
- Corelația indică puterea asocierii dintre variabile. Spre deosebire de, regresia reflectă impactul modificării unității din variabila independentă asupra variabilei dependente.
- Corelația urmărește găsirea unei valori numerice care exprimă relația dintre variabile. Spre deosebire de regresia al cărei scop este de a prezice valori ale variabilei aleatoare pe baza valorilor variabilei fixe.
Video: corelație vs regresie
Concluzie
Cu discuția de mai sus, este evident că există o mare diferență între aceste două concepte matematice, deși acestea două sunt studiate împreună. Corelația este folosită atunci când cercetătorul dorește să știe dacă variabilele studiate sunt sau nu corelate, dacă da atunci care este puterea asocierii lor. Coeficientul de corelație al lui Pearson este considerat cea mai bună măsură a corelației. În analiza de regresie se stabilește o relație funcțională între două variabile astfel încât să se facă proiecții viitoare asupra evenimentelor.
Diferențele înrudite