Monday, 25 December 2017

CERITA 19: Putaran dalam Analisis Faktor: Varimax atau Promax? (Rotation in Factor Analysis: Varimax or Promax)

CERITA 19: Putaran dalam Analisis Faktor: Varimax atau Promax?

Image result for forest and lake
Sumber: Google

Salam semua, dah lama tak update entry di sini, hampir 3 bulan. Idea untuk menulis memang sentiasa ada, cuma agak keterbatasan waktu untuk mengolah agar ayat lebih mudah difahami kepada pembaca.

Juga terima kasih kepada anda yang pernah mendapatkan khidmat dan servis saya, jutaan terima kasih atas kepercayaan yang diberikan.

Sebenarnya adakalanya idea menulis itu datang ketika menjalankan analisis, yang adakalanya saya tak terokai waktu zaman belajar dahulu, namun begitulah mana-mana bidang ilmu, selagi kita teroka dan gali, rasa banyak sangat maklumat yang tidak diketahui. Namun sedikit sebanyak ilmu yang kita dapat mungkin dapat dikongsi dengan orang lain yang tidak berkesempatan untuk menggalinya.


Ok lah untuk entry kali ini, saya nak ceritakan sedikit mengenai perbandingan kaedah putaran dalam analisis faktor, selalunya bila kita guna SPSS > Analyze > Dimention Reduction > Factor Analysis > Rotation. Kaedah rotation yang manakah harus digunakan? Namun dalam entry ini lebih kepada perbandingan antara kaedah varimax dan promax sahaja. Kajian lanjut nanti kita buat paper lah..hehe.


Hampir semua kaedah putaran dalam analisis faktor boleh dibahagikan kepada 2 jenis umum iaitu, ‘orthogonal’ dan ‘oblique’.


Jadual: Perbandingan Putaran Jenis Orthogonal dan Oblique


Analisis dalam kaedah promax menghasilkan putaran struktur yang lebih mudah berbanding Varimax, khususnya apabila ciri-ciri pemboleh ubah pendam (latent) adalah berkorelasi tinggi (McLeod et al., 2001).

McDonald (1997) mencadangkan jenis putaran oblique lebih sesuai kerana dalam aplikasi sebenar, jarang untuk menemui setiap faktor dalam kajian tidak berkorelasi antara satu sama lain.

De Vellis (2003) pula dalam kajiannya mencadangkan apabila korelasi antara faktor adalah <  0.15, jenis orthogonal lebih baik, sebaliknya jika lebih r > 0.15, maka jenis oblique adalah sesuai.

Kieffer (1998) pula mencadangkan menggunakan kedua-dua orthogonal dan oblique, kemudian kedua-dua keputusan dibandingkan. Jika kedua-dua kaedah menghasilkan keputusan yang sama atau tidak banyak beza, orthogonal boleh digunakan. Namun jika terdapat banyak perbezaan, pendekatan oblique lebih sesuai.

(Johnson & Wichem, 2002; McDonald, 1997; Tabachnick & Fidell, 2001) secara umumnya mencadangkan bahawa jika pengkaji percaya bahawa faktor tersembunyi (underlying factor) adalah berkorelasi antara satu sama lain, jenis oblique harus digunakan.

Namun berdasarkan cadangan-cadangan penulis terdahulu, tiada kajian yang betul-betul menguji sejauh mana pencapaian pendekatan orthogonal mahupun oblique mengikut bidang kajian tertentu.  
Oleh kerana putaran faktor tidak mengubah penyuaian (fit) sebenar penyelesaian dalam analisis faktor, tiada satu kaedah yang ada boleh dikatakan lebih baik berbanding yang lain. Sebaliknya, setiap kaedah mempunyai kelebihan dan kekurangan yang unik, di mana sesuatu pendekatan tersebut mungkin lebih sesuai dalam sesetengah keadaan/ kajian tertentu.

Ok, setakat ini dahulu perkongsian hari ini. Ada masa kita cerita lagi.

Artikel ini saya olah daripada:

Finch, H. (2006). Comparison of the Performance of Varimax and Promax Rotations: Factor Structure Recovery for Dichotomous Items. Journal of Educational Measurement, Vol. 43, No. 1 (Spring, 2006), pp. 39-52


Rujukan:
Johnson, R. A., & Wichern, D. W (2002). Applied multivariate statistical analysis. Upper Saddle River, NJ: Prentice Hall.

DeVellis, R. F. (2003). Scale development: Theory and applications. Thousand Oaks, CA: Sage

Kieffer, K. M. (1998). Orthogonal versus oblique rotation: A review of the literature regarding the pros and cons. Paper presented at the Annual Meeting of the Mid-South Educational Research Association, New Orleans, LA, November, 1998.

McDonald, R. P. (1997). Test theory: A unified treatment. Mahwah, NJ: Erlbaum.

McLeod, L. D., Swygert, K. A., & Thissen, D. (2001). Factor analysis for items scored in two categories. In D. Thissen & H. Wainer (Eds.), Test scoring (pp. 189-216). Mahwah, NJ: Erlbaum


Tabachnick, B. G., & Fidell, L. S. (2001). Using multivariate statistics. Needham Heights, MA: Allyn & Bacon.

Monday, 25 September 2017

CERITA 18: Tips Memilih Ujian Statistik yang Sesuai (II)

Salam semua, sebelum ini saya pernah kongsikan di blog Tips Memilih Ujian Satatistik yann Sesuai DI SINI.

Tetapi hari ini saya nak kongsikan tips berdasarkan data Dependent Variable (DV) dan Independent Variable (IV) yang kita ada.




Rujukan:

Annette, J.D.  2002. An Introduction to Generalized Linear Models. Edisi ke-2. Florida: Chapman & Hall/CRC.

Wednesday, 12 July 2017

CERITA 17: Multicollinearity Dalam Data

 Multikolineariti (multicollienarity) 

sumber: google

Multikolineariti adalah keadaan di mana korelasi antara pasangan pemboleh ubah tidak bersandar yang sangat tinggi (r = 0.9 dan ke atas). Oleh itu, multikolineariti ditakrifkan sebagai sejenis gangguan dalam data, dan jika ia wujud, dapatan statistik yang didapati berkemungkinan tidak boleh dipercayai.

Kewujudan masalah multikolineariti perlu dilakukan sebagai salah satu langkah awal dalam data kita sebelum melakukan analisis lanjut seperti analisis regresi berganda (mutliple linear regression - MLR). Jika anda berhasrat untuk menggunakan MLR dalam kajian, anda seharusnya peka dengan isu ini dan melakukan ‘usaha’ lanjut bagi mengatasi masalah ini.


Tanda-tanda kewujudan multikolineariti 
  •  Apabila kita menambah atau membuang pemboleh ubah tidak bersandar, nilai pekali regresi akan berubah dengan ketara
  • Ralat piawai bagi pekali regresi menjadi besar
  • Pekali regresi sesuatu pemboleh ubah tidak bersandar akan menjadi tidak signifikan walaupun keseluruhan model adalah signifikan
  • Sesetengah pekali regresi berkemungkinan akan berbeza secara signifikan daripada apa yang dijangka (walaupun mempunyai tanda yang berbeza)
  • Nilai korelasi antara pasangan pemboleh ubah tidak bersandar adalah tinggi


Penyebab multikolineariti
  •  Pensampelan: kita hanya mengambil sampel kawasan yang mempunyai pemboleh ubah tidak bersandar berkorelasi
  • Model (atau populasi) tersebut memerlukan beberapa pemboleh ubah tertentu mempunyai korelasi
  • Tidak menggunakan model yang terbaik


Bagaimana untuk kenal pasti multikolineariti?
  1. Matriks korelasi 
  2. Variance Inflation Factor (VIF) 
  3. VIF mengukur kesan kolineariti antara pemboleh ubah dalam model regresi. Nilai VIF lazimnya ≥1. Dalam kajian literasi, terdapat beberapa cadangan digunakan untuk nilai VIF yang diterima. Tetapi secara kebiasaannya, nilai VIF = 10 dicadangkan sebagai nilai maksimum menandakan multikolineariti wujud (iaitu Hair, Anderson, Tatham, & Black, 1995; Kennedy, 1992; Marquardt, 1970; Neter, Wasserman, & Kutner, 1989). Namun, ada juga kajian menyarankan 5 sebagai nilai maksimum (cth: Rogerson, 2001) malah nilai 4 (cth: Pan & Jackson, 2008) 
     3. Tolerance 
     4. Eigensystem analysis 


Bagaimana berhadapan dengan masalah multikolineariti?
  1.       .. Membuang pemboleh ubah yang mempunyai korelasi yang tinggi dalam model
  2.   ..Menggunakan kaedah Partial Lease Square Regression (PLS) atau Principal Component Analysis (PCA)


Rujukan:
● Hair, J. F. Jr., Anderson, R. E., Tatham, R. L. & Black, W. C. (1995). Multivariate Data Analysis (3rd ed). New York: Macmillan.
● Kennedy, P. (1992). A Guide to Econometrics. Oxford: Blackwell.
●Marquardt, D. W. (1970). Generalized inverses, ridge regression, biased linear estimation, and nonlinear estimation. Technometrics, 12, 591–256.
● Neter, J., Wasserman, W. & Kutner, M. H. (1989). Applied Linear Regression Models. Homewood, IL: Irwin.
● Pan, Y, & Jackson, R. T. (2008). Ethnic difference in the relationship between acute inflammation and and serum ferritin in US adult males. Epidemiology and Infection, 136, 421-431.
● Rogerson, P. A. (2001). Statistical methods for geography. London: Sage.





Thursday, 6 July 2017

CERITA 16: Penjelmaan Data (Data Transformation)

Penjelmaan Data (Data Transformation)



Salam semua pembaca yang budiman, wahh bila mood R.A.J.I.N datang menjelma, hari-hari ko update blog.hehe. Ok kalau nak tau untuk semua pembaca, setiap entry yang ditulis adalah melalui pemahaman dan pembacaan saya di beberapa blog/ website/ jurnal di internet.

Juga hasil rujukan daripada beberapa buah buku. Adakalanya saya ambil ringkas sahaja kerana untuk rujukan saya juga, maklumlah adakalanya kita juga mudah terlupa dan blog ini adalah salah satu catatan ringkas saya secara santai.

*Flashback kejap* 
Ok tajuk di atas ni sebenarnya mengingatkan saya memori sewaktu buat degree dulu di Institut Sains Matematik, Fakulti Sains, Universiti Malaya. Banyak kenangan di situ, tambahan pula 12 tahun dahulu, pelajar Melayu yang ambil statistik berapa kerat sahaja. Dan salah satu subjek yang saya gemari adalah Analisis Data, waktu tu antara pensyarah favourite saya dan geng adalah Dr. Ibrahim Mohamed, sekarang beliau dah bergelar Prof. Dr. Ibrahim Mohamed, ;). Tahniah Prof! Juga antara pensyarah yang kurus, tinggi, lawa mengajar subjek Design of Experiment (DOE), Prof. Dr. Aishah Hamzah. Setiap hari nak pergi kelas sebab suka tengok gaya beliau yang tak pernah tak cantik! hehe . maklumlah student2 nya selebet sahaja. 


Kembali kepada penjelmaan data

Ok, balik kepada realiti. Masa bila perlunya kita buat data transformation ni? Ok, setelah kita melihat bentuk taburan data melalui beberapa kaedah visual sebelum ni, seperti histogram/ plot normal, adakalanya bentuknya tidak menyerupai loceng atau berbentuk taburan normal. Sebagai perbandingan, bentuknya seperti di bawah:

sumber: google



Jika data kita mengikuti bentuk taburan normal, seharusnya nilai min=median=mode adalah sama.


Walaubagaimanapun, adakalanya kita mendapat bentuk seperti yang di bahagian tengah (positive skew- pencong ke kanan) atau (negative skew- pencong ke kiri).

Bagaimana untuk atasi masalah ini?

Seperti yang diketahui, kaedah statistik berparameter (parametric) memerlukan andaian kenormalan. Jika tidak, kaedah statistik tak berparameter (non-parametric statistic) mungkin menjadi pilihan anda.


Antara kaedah penjelmaan data yang popular:

1. Square-root transformation 
    - jika varians berkadaran dengan nilai min
    - sesuai untuk data berbentuk bilangan (count data)
 

Jika kita lihat bentuk taburan data asal kelihatan pencong ke kanan, setelah kita lakukan square-root transformation, bentuk taburan menjadi taburan normal.


2. Log transformation
    - jika sisihan piawai berkadaran dengan nilai min
    - untuk taburan berbentuk pencong ke kanan




3. Reciprocal transformation
    - jika sisihan piawai berkadaran dengan nilai min kuasa dua




OK..sampai sini dulu.. jika rajin akan update lagi. tkasih sudi membaca.













Wednesday, 5 July 2017

CERITA 15: Andaian Kenormalan- Normality Assumption

Andaian Kenormalan- Normality Assumption

Salam semua, lama sungguh tak update entry di sini. Kekangan masa, dan ikut mood rajin datang nak menulis. Hehe.

Ok lah, hari ini saya nak kongsikan serba sedikit tentang beberapa kaedah / teknik yang kita boleh gunakan untuk tentukan samada andaian kenormalan dipenuhi oleh data kita.

Mengapa andaian kenormalan sangat penting? Ini kerana banyak kaedah dan ujian statistik memerlukan data kita menghampiri taburan normal. Contohnya t-test, F-test, analisis regresi ini memerlukan andaian ini dipenuhi sebelum kita dapat meneruskan analisis kita.


Antara pendekatan grafik yang boleh digunakan:

1. Histogram

sumber: google



2. Stem-and-leaf plot (Plot dahan-dan-daun)

sumber: google


3. Boxplot

sumber: google



4. P-P Plot (Probability-probability plot)

sumber: google

5.Q-Q Plot (quantile-quantile plot)

sumber: google


Pendekatan ini bagi kita mendapatkan gambaran ringkas. Akan tetapi, interpretasi adalah berdasarkan pengamatan kita terhadap bentuk/ grafik yang dipamerkan, kemungkinan kurang tepat.

Maka ada alternatifnya, atau tambahan kepada gambaran visual tadi, kita boleh gunakan beberapa ujian seperti:

1. Kolmogorov-Smirnov (K-S) test
2. Lilliefors Corrected K-S test
3. Shapiro-Wilk test
4. Anderson-Darling test
5. Cramer-von Mises test 
6. D’Agostino skewness test 
7. Anscombe-Glynn kurtosis test
8. D’Agostino-Pearson omnibus test
9. Jarque-Bera test

Fuh, banyak rupanya! Namun yang paling famous sudah tentu nombor (1) dan (3). Setiap ujian ini ada kelebihan/limitationnya. Perlu selidik dahulu!


Hipotesis dalam menguji kenormalan ini adalah seperti berikut:


Hipotesis nol:            Taburan data adalah normal
Hipotesis alternatif: Taburan data adalah TIDAK normal

Bagaimana jika data kita tak normal? Ok, ada beberapa teknik yang boleh kita gunakan. Dalam statistik dipanggil Penjelmaan Data (Data Transformation). InsyaAllah di lain masa akan saya kongsikan kaedah tersebut.

ok, catatan di atas saya olah sedikit dan diambil daripada Normality Tests for Statistical Analysis: A Guide for Non-Statisticians. Terima kasih kerana sudi membaca. :)

Monday, 8 May 2017

CERITA 14: Tips Memilih Ujian Statistik yang Sesuai

Tips Memilih Ujian Statistik yang Sesuai 





Salam semua, anda yang tengah membaca or blog walking sekarang ni mungkin sedang mencari ujian statistik apakah yang paling sesuai untuk kajian anda kan? Ya, tu antara soalan yang kerap ditanya, terutamanya pelajar master (coursework) yang buat part time belajar dan juga antara calon PhD mungkin?

Topik korelasi adalah antara topik yang hot lah yang boleh saya katakan, popular di kalangan pelajar master yang bukan berlatar belakangkan statistik. Lazimnya sewaktu zaman belajar dahulu, lecturer dah warning siap2..” Eh u all jangan lah guna multiple regression untuk tesis ni, guna teknik lain lah”, dengan erti kata lain, sapa yang pakai MLR utk tesis memang kena tukar kaedah lain, kalau tak, confirm tak dapat A. Wow aim high gitu. Yalah sapa taknak A kan? Ke asal lepas 3.0 pointer ajer cukup ;) . Eh macam betul je. hakikat.

Sebabnya? Sambung lecturer kami lagi ”…Tu basic untuk budak statistik (sepatutnya). Padahal, banyak teknik lain lagi boleh explore...” Gitulah. Pendapat pensyarah di IPTA saya. Lain padang lainlah belalangnya kan? Tambah zaman kita guna pakai big data ni, meluas sungguh, pelbagai teknik di bidang lain yang kita boleh explore. Tapi,, tapi,, tapi..... berlainan ya jika anda dari bidang lain dan, MLR antara kaedah yang popular! Boleh menang award gitu. Ya. Jangan risau.:) Teruskan membaca lagi.

Selain daripada kita melaporkan frekuensi dan peratusan dalam bentuk graf palang, carta pai dan sebagainya, kita boleh ceritakan/ perihalkan data anda dengan lebih lanjut lagi. Sebab itu, ini dinamakan statistik inferens (statistical inference). Melalui inferens ini, kita menggunakan ujian statistik tertentu dalam menggambarkan data kita kepada orang luar/ masyarakat adakah corak data yang dikaji menggambarkan situasi sebenar atau disebabkan oleh kebarangkalian.




Sebenarnya saya nak kongsikan hari ini, tips memilih ujian statistik yang sesuai.
  • Lihat rekabentuk kajian anda
  • Taburan data anda (normal?) Jika tidak, teknik statistik tak berparameter mungkin sesuai
  • Jenis pembolehubah



Associationship:
No.
Type of Test: Use:

1.
Correlational These tests look for an association between variables
2.
Pearson correlation
Tests for the strength of the association between two continuous variables
3.
Spearman correlation Tests for the strength of the association between two ordinal variables (does not rely on the assumption of normal distributed data)
4.
Chi-square Tests for the strength of the association between two categorical variables


Comparison of Means: look for the difference between the means of variables
No.
Type of Test: Use:

1.
Paired T-test
Tests for difference between two related variables
2.
Independent T-test Tests for difference between two independent variables
3.
ANOVA Tests the difference between group means after any other variance in the outcome variable is accounted for

Regression: assess if change in one variable predicts change in another variable
No.
Type of Test: Use:

1.
Simple regression
Tests how change in the predictor variable predicts the level of change in the outcome variable
2.
Multiple regression Tests how change in the combination of two or more predictor variables predict the level of change in the outcome variable

Non-parametric: are used when the data does not meet assumptions required for parametric tests
No.
Type of Test: Use:

1.
Wilcoxon rank-sum test
Tests for difference between two independent variables - takes into account magnitude and direction of difference
2.
Wilcoxon sign-rank test Tests for difference between two related variables - takes into account magnitude and direction of difference
3.
Sign test Tests if two related variables are different – ignores magnitude of change, only takes into account direction


Tuesday, 25 April 2017

CERITA 13: Validity Test Using SPSS - Ujian Kesahan Instrumen

Ujian Kesahan (Validity) Instrumen



Gambar saja carik pasal: Credit sate kajang Haji Samuri

Salam semua, dah lama tak update di sini.

Hari ini saya nak kongsikan mengenai cara untuk jalankan validity test. Seperti yang diketahui, sesuatu ukuran itu dikatakan 'sah' apabila ia mengukur apa yang sepatutnya diukur. Ada beberapa kaedah untuk tentukan/ menilai kesahan instrumen, antaranya:

1. Content validity
     a) Face validity
     b) Logical validity

2. Criterion related validity

3. Construct validity
     a) Factorial validity


Tetapi yang menarik minat saya adalah berkenaan kaedah (3a)


Kaedah 3(a) boleh ditentukan menggunakan teknik faktor analisis di SPSS. Selalunya instrumen yang diukur adalah dalam skala likert.

By default saya akan klik di SPSS > Analyze > Dimension Reduction > Factor >:

Masukkan item-tem/soalan dalam sola selidik bagi konstruk yang dikehendaki dalam ruangan 'Variables'.

Klik juga nilai KMO Bartlett - untuk semak adakah sesuai untuk kita run analisis faktor. Jika nilai KMO ini > 0.5, kaedah untuk menggunakan analisis faktor adalah tepat.

Extraction > pilih Principal Component
Rotation > Varimax

Output yang terhasil, kita tgk jadual yang memaparkan 'Rotated Component Matrix'. Jika semua item 'load' di bawah 1 faktor sahaja, ini menyokong andaian bahawa kesemua item ini mengukur 1 konstruk yang sama.







Thursday, 16 March 2017

CERITA 12: Saya nak analisis data tapi tiada SPSS?




Salam semua pembaca, persoalan yang sering dihadapi adalah bagaimana jika kita ingin membuat analisis statistik jika tiada perisian SPSS?

Untuk yang tak tahu, kos pembelian  SPSS (original) mencecah ribuan ringgit tau, melainkan kita nak beli sendiri / atau ditaja oleh supervisor no hal lah. Sesetengah universiti/ kolej mungkin melanggan namun jika lesennya terhad, alamat kempunanlah! Pulak tu nak pakai sekejap aje, rasa tak berbaloi nak beli kan! haha.

Dan masa untuk siapkan tesis pula hanya tinggal 3 bulan sahaja. So apa nak buat? Upah orang lah? 3 hari siap. Haha..masyukk.. taklah semudah itu kan.

Sebenarnya, banyak software lain, atau nak kira open source software (OSS) yang boleh kita gunakan. Masa zaman saya belajar dulu (dah tua pun) universiti saya langgan SPlus. Tapi bila dah stop, kerja di kilang dan bank, pakai excel saja. Zaman buat Master, pakai R.

Anda di luar sana boleh je nak pakai R atau mana2 platform OSS yang lain, namun bagi yang bukan berlatarbelakangkan statistik, mungkin rasaaa adehh pening kepala mana nak blajar perisian lagi, statistik lagi kan, nak siapkan tesis/kerja lagi. adoiyaii.

So yang termudah adalah Microsoft Excel.. Percuma..Hanya perlu add-in pakej "Data Analysis' di bahagian tab atas. Semudah upload gambar kat insta hehe!

Meh di sini saya share langkah mudah untuk add-in pakej ni. 

*(catatan: saya pakai Windows 10)

Pertama 
Open Microsoft  Excel > File > Options

Kedua
Paparan seperti berikut :




Ketiga
Klik Add-Ins > Analysis ToolPak > OK.

Paparan seperti berikut:


Keempat
Paparan 'Data Analysis' akan muncul di tab 'Data'.

Paparan seperti berikut:

Kelima
Klik Data Analysis dan, tadaaaa... silalah pilih mana-mana analisis yang ingin dibuat.

Paparan seperti berikut:



Di sini adalah senarai pilihan yang boleh dilakukan di Excel. Wahhh..banyaknya..best kan?


Tetappp kann.. background nature. 

Namun biasalah bila benda free ni, mesti ada limitationnya. Tapi apa kata, cuba dahulu, belum cuba belum tahu!




Wednesday, 15 March 2017

CERITA 11: 8 Andaian untuk Analisis Linear Berganda (8 Assumptions in Multiple Linear Regression)

Salam semua, hari ni saya kongsikan grafik ringkas untuk ingat 8 andaian yang perlu dipenuhi sebelum kita run Analisis Linear Berganda (Multiple Linear Regression)

Assumptions in MLR

Note:

DV = dependent variable
IV  = independent variable


Perlu diingatkan sekiranya salah satu tersebut tidak dipenuhi, maka kita tidak boleh teruskan kaedah tersebut, dan perlu memperimbangkan kaedah lain.

Namun jika masih berminat, mngkin perlu buat sedikit transformation pada data kita.

Contohnya data kita tidak mempunyai taburan yang normal, kita boleh pertimbangkan kaedah statistik tidak berparameter yang lain. (non-parametric), atau kita melakukan transformation pada data kita menggunakan kaedah sedia ada contohnya seperti log transformation, square root dsbnya.


Sunday, 12 March 2017

CERITA 10: Prosedur dalam Ujian Hipotesis (The Hypothesis-testing procedure)

Salam semua, hari ini saya nak kongsikan, terdapat 6 langkah dalam prosedur ujian hipotesis yang telah diringkaskan seperti berikut:

Kredit artikel asal Vasquez, E. (2003), Notes on Business Education.





Selamat menyambung research anda =)



Monday, 6 March 2017

CERITA 9: Testing mediation using regression analysis

Baru-baru ini saya ada menerima pertanyaan berkenaan mediation.



Ini syazwani punya copyright





Sekadar refresh balik, selain menggunakan AMOS, secara asasnya kita boleh menguji mediator dengan menggunakan konsep Simple dan Multiple Linear Regression (SLR dan MLR) dalam SPSS.

Kaedah yang dinamakan "Four Steps Approach" diperkenalkan oleh  Baron & Kenny (1986).

Langkah-langkah seperti berikut:
1. Conduct SLR      X--> Y
2. Conduct SLR      X--> M
3. Conduct SLR      M--> Y
4. Conduct MLR     X and M -->Y


Rumusan:

a) Bagi Langkah (1), (2), (3) setiap result perlulah significant (p-value<0.05). Jika salah satu tidak dipenuhi maka kita boleh katakan NO MEDIATION
b) Sekiranya ok dengan (a) maka boleh teruskan dengan Langkah (4).
     FULL MEDIATION berlaku apabila X significant, M tidak significant selepas kita conduct MLR

Wednesday, 1 March 2017

CERITA 8: Independent sample t-test (ujian-t sampel tidak bersandar)


Independent sample t-test/ 2 sample t-test (Ujian t-sampel tidak bersandar)

Bila kita harus guna?

Digunakan apabila kita ingin membuat perbandingan min antara dua kumpulan yang tidak bersandar pada sesuatu pembolehubah selanjar. Ingat! 2 KUMPULAN SAHAJA TAU!! (lelaki vs perempuan), (bekerja vs tidak bekerja) dan lain-lain. Jika anda nak compare lebih daripada dua, gunakan 1 way ANOVA.

Contohnya; kita hendak mengkaji adakah terdapat perbezaan min pendapatan bulanan isi rumah mengikut status perkahwinan samada berkahwin atau bujang. 


Pic di atas sekadar hiburan. haha  #mudahterhibur #donttakethingstooserious



Dalam kes ini:

DV (dependent variable/ pemboleh ubah bersandar): pendapatan

IV (independent variable/ pemboleh ubah tidak bersandar): status perkahwinan (bujang vs berkahwin)

Namun sebelum kita mengklik butang-butang di SPSS, macam biasa kita harus melepasi beberapa andaian seperti berikut:




ok. lazimnya kajian dalam bidang sains sosial, atau apa sahaja contohnya customer satisfaction, DV kita adalah dalam bentuk likert scale, ok sekiranya likert scale kita sekurang-kuranya ada 5 ukuran (cth: sangat tidak setuju : 1 ------> sangat setuju : 5), data dalam likert scale kita katakan underlying continuum, so kita boleh anggap DV (dalam bentuk likert scale) sebagai continuous variable.


Tiada nilai terpencil (outliers) yang signifikan, kita boleh semak dengan pelbagai cara antaranya box plot, Mahalanobis Distance dll.


OK. lain masa akan sambung lagi..