Perhatian!Rumus error? gunakan google chrome atau firefox

Panduan Lengkap Menguasai Metode Analisis Faktor (Factor Analysis)

Analisis faktor merupakan metode analisis multivariat yang didasarkan pada korelasi antar variabel. Analisis faktor termasuk salah satu teknik statistika yang dapat digunakan untuk memberikan deskripsi yang relatif sederhana melalui reduksi jumlah variabel yang disebut faktor.

Analisis faktor dipergunakan untuk mereduksi data atau meringkas, dari variabel lama yang banyak diubah menjadi sedikit variabel baru yang disebut faktor, dan masih memuat sebagian besar informasi yang terkandung dalam variabel asli (Supranto, 2004).

Pengertian Analisis Faktor

Analisis Faktor - Analysis Factor Model
Analisis Faktor (Factor Analysis)

Variabel latent atau variabel untuk data-data kualitatif harus melalui pengujian kelayakan dan keabsahan terlebih dahulu (validitas dan realibilitas) sebelum dikelompokkan menjadi variabel yang akan di analisis faktor.

Baca: Berikut alasan pentingnya uji validitas dan realibilitas

Analisis faktor dalam analisis multivariate tergolong analisis interdependensi (interdependence technique) dimana seluruh set hubungan yang interdependen diteliti.Variabel yang berada dalam satu kelompok akan memiliki korelasi yang tinggi sedangkan variabel yang berbeda kelompok akan memiliki korelasi yang rendah.

Dalam tulisan Supranto, dikatakan bahwa analisis faktor digunakan untuk mereduksi data/variabel. Analisis faktor dipergunakan dalam kondisi sebagai berikut :

  1. Mengenali atau mengidentifikasi dimensi yang mendasari (underlying dimensions) atau faktor, yang menjelaskan korelasi antara suatu set variabel.
  2. Mengenali atau mengidentifikasi suatu set variabel baru yang tidak berkorelasi (independent) yang lebih sedikit jumlahnya untuk
  3. menggantikan suatu set variabel asli yang saling berkorelasi di dalam analisis multivariat selanjutnya.
  4. Mengenali atau mengidentifikasi suatu set variabel yang penting dari suatu set variabel yang lebih banyak jumlahnya untuk dipergunakan dalam analisis multivariat selanjutnya.

Jika vektor acak (random vector)  \(X=X_{1},X_{2},X_{3},…X_{p}\) mempunyai vektor rata-rata   µ  dan matriks ragam peragam Σ , secara linear bergantung pada sejumlah faktor yang tidak teramati \(F_{1},F_{2},F_{3},…F_{m}\) yang disebut faktor umum (common factor) dan \(\varepsilon_{1},\varepsilon_{2},\varepsilon_{3},…\varepsilon_{p}\) yang disebut faktor khusus (specific factors).

Maka model dari analisis faktor adalah:

\(X_{1}-\mu_1=l_{11}F_{1}+l_{12}F_{2}+…+l_{1m}F_m+\varepsilon_1\)

\(X_{2}-\mu_2=l_{21}F_{1}+l_{22}F_{2}+…+l_{2m}F_m+\varepsilon_1\)

\(\vdots\)

\(X_{p}-\mu_p=l_{p1}F_{1}+l_{p2}F_{2}+…+l_{pm}F_m+\varepsilon_p\)

Dan jika kita akan menuliskannya kedalam notasi matriks, bentuknya sebagai berikut:

\(X_{(p\times1)}-\mu=L_{(p\times m)}F_{(m\times1)}+\varepsilon_p\)

Keterangan:
X = vektor variabel asal
µ = vektor rata-rata variabel asal
L = matrik loading factor
F = vektor faktor bersama
\(\varepsilon\) = vektor faktor spesifik

Pembentukan model di atas dilakukan berdasarkan asumsi-asumsi berikut:

1. \(E(F) = 0_{(m\times1)}\)

2. \(Cov(F) = E (FF^{‘}) =I_{(m\times m)}\)

3. \(E(\varepsilon) = 0_{(p\times1)}\)

4. \(Cov (\varepsilon) = E (\varepsilon \varepsilon^{‘}) =\Psi_{(p\times p)}=\begin{bmatrix} \Psi_{1} & 0 & \cdots & 0\\ 0 & \Psi_{1} & \cdots & 0\\ 0 & 0& \ddots & \vdots\\ 0 & 0& \cdots & \Psi_{p}\\ \end{bmatrix}\)

5. \(Cov(\varepsilon, F) = E (\varepsilon F^{‘}) = 0_{(p\times m)}\)

Adapun struktur kovarian untuk model faktor orthogonal adalah:

1. \(Cov (X) = LL^{‘}+\Psi\) ; atau

\(Var (X_{i}) =l_{i1}^{2} + l_{i2}^{2} + … + l_{im}^{2}+\Psi_i\)

\(Cov (X_{i},X_{j}) = l_{i1}l_{j1} +l_{i2}l_{j2}+…+l_{im}l_{jm}\)

2. \(Cov (X, F)= L\) ; atau

\(Cov (X_i,F_j) =l_{ij}\)

Model  \((X−\mu) =LF+\varepsilon\)  adalah linear dalam faktor umum. Bagian dari Var \(X_{i}\) yang dapat diterangkan oleh m faktor umum disebut communality ke-i, sedangkan bagian-bagian dari Var \(X_{i}\) yang merupakan faktor spesifik disebut uniqueness atau keragaman spesifik (spesific varians) ke-i.

Maka variansya dapat ditulis sebagai berikut:

\(\sigma_{ii}=l_{i1}^{2}+l_{i2}^{2}+l_{i3}^{2}+\cdots+l_{im}^{2}+\psi_i=h_{i}^{2}+\psi_i\)

Keterangan:
\(l_{ij}=\) loading factor
\(l_{i}^{2}=\) Communality ke-i
\(\psi_{i}=\) keragaman spesifik ke-i

Nilai loading menunjukkan korelasi antara faktor umum yang terbentuk dengan variabel asal, semakin besar nilai loading maka semakin erat hubungan diantara keduanya.

Hair (1998) dalam tulisannya menyatakan bahwa nilai minimal loading yang digunakan adalah lebih besar dari ± 0.30; loading ± 0.40 dianggap penting; dan loading ± 0.50 atau lebih besar dinyatakan signifikan.

Metode Analisis Faktor

Terdapat dua cara yang dapat dipergunakan dalam melakukan analisis faktor khususnya koefisien skor faktor, yaitu Principal component analysis (PCA) dan Common factor analysis (CFA).

1. Principal component

Jumlah varian yang terdapat dalam gugus data harus dipertimbangkan. Diagonal matrik korelasi terdiri dari angka satu dan full variance dibawa dalam matriks faktor. Principal component direkomendasikan jika hal yang pokok adalah menentukan bahwa banyaknya faktor harus minimum dengan memperhitungkan varians maksimum dalam data untuk dipergunakan di dalam analysis multivariate lebih lanjut.

2. Common factor analysis

Faktor yang diestimasi hanya didasarkan pada common variance dan communalities yang dimasukkan dalam matrik korelasi. Metode ini dianggap sangat tepat jika tujuan utamanya adalah untuk mengenali/mengidentifikasi dimensi yang mendasari dan common variance yang menarik perhatian.

Langkah-langkah Melakukan Analisis Faktor

Supranto (2004) mengemukakan bahwa langkah-langkah dalam menentukan analisis faktor adalah pertama merumuskan masalah dan mengidentifikasi variabel asli yang akan dianalisis faktor. Kemudian suatu matriks korelasi dari variabel dibentuk dan metode analisis faktor dipilih. Peneliti menentukan banyaknya faktor yang akan dipilih (extracted) dari variabel yang banyak tersebut dan metode rotasi akan dipergunakan. Selanjutnya menginterpretasikan faktor hasil rotasi.

Berikutnya tergantung pada tujuan penelitian, menghitung skor faktor ataukah memilih surrogate variable, untuk mewakili faktor yang akan digunakan untuk analisis multivariat selanjutnya. Dengan mengacu pada teori diatas, secara singkat, proses analisis faktor dapat dilakukan tahapan sebagai berikut:

  1. Mengelompokan variabel-variabel yang akan dianalisis faktor dalam suatu permasalahan dan menyusun matriks korelasinya.
  2. Melakukan Ekstraksi faktor.
  3. Merotasi faktor.
  4. Menghitung skor faktor

– Interpretasikan Faktor

– Pembuatan factor scores.

– Pilih variabel surrogate atau tentukan summated scale.

1. Pemeriksaan matriks korelasi

Seperti dijelaskan sebelumnya bahwa analisis faktor didasari oleh korelasi antara variabel-variabel yang digunakan. Variabel awal yang digunakan merupakan variabel yang saling berkorelasi diharapkan setelah dilakukan analisis faktor akan terbentuk set variabel baru yang lebih sedikit dan tidak berkorelasi.

Oleh karena itu, langkah pertama perlu dicek apakah terdapat korelasi antar variabel yang diteliti, karena jika tidak terdapat korelasi maka analisis faktor yang digunakan menjadi tidak berguna.

Pemeriksaan matriks korelasi dapat dilakukan dengan tiga cara yaitu;

  1. Uji Bartlett
  2. Uji KMO
  3. Uji MSA

Uji Bartlett (Bartlett Test of Sphericity)

Pengujian ini digunakan untuk melihat apakah matriks korelasi bukan merupakan matriks identitas. Tujuan dari melihat apakah matriks korelasi merupakan matriks identitas atau bukan adalah agar penyusutan dimensi peubah menjadi lebih sederhana dan bermanfaat tanpa banyak kehilangan informasi sebelumnya.

Apabila dari uji Bartlett hasilnya significant, maka matriks korelasi bukan matriks identitas. Maka penyusutan dimensi peubah tersebut bermakna untuk dilakukan analisis komponen utama. Dengan kata lain, pengurangan peubah akan mempunyai arti dan kegunaan.

Tahapan dari pengujian ini adalah sebagai berikut:

\({\color{Red}\star}\)  Hipotesis

\(H_0\): Matriks korelasi merupakan matriks identitas

\(H_1\): Matriks korelasi bukan merupakan matriks identitas

\({\color{Red}\star}\)  Statistik Uji

\(\chi_{obs}^{2}=-[(N-1)-\frac{(2p+5)}{6}]ln|R|\)

Keterangan:

N = jumlah observasi

p = jumlah peubah

|R| = determinasi dari matriks korelasi

\({\color{Red}\star}\)  Pengambilan Keputusan

Keputusan tolak \(H_0\) apabila nilai \(\chi_{obs}^{2}>\chi_{\alpha,p(p-1)/2}^{2}\) Setelah dilakukan pengujian terhadap matriks korelasi, perlu diketahui apakah data layak untuk dianalisis lebih lanjut menggunakan analisis faktor.

Untuk menguji kelayakan tersebut digunakan uji KMO (Kaiser Meyer Olkin).

Uji KMO (Kaiser Meyer Olkin)

KMO digunakan untuk mengukur kecukupan sampling (sampling adequacy). Nilai ini membandingkan besarnya koefisien korelasi terobservasi dengan koefisien korelasi parsial. Nilai KMO yang kecil menunjukkan bahwa korelasi antar pasangan variabel tidak bisa diterangkan oleh variabel lainnya dan analisis faktor mungkin tidak tepat.

Rumusnya adalah:

\(KMO=\frac{\sum_i \sum_{i\neq j}r_{ij}^{2}}{\sum_i \sum_{i\neq j}r_{ij}^{2}+\sum_i \sum_{i\neq j}\alpha_{ij}^{2}};i=1,2,..,p ;j=1,2,…,p\)

Keterangan:

\(r_{ij}\)  = koefisien korelasi sederhana antara peubah i dan j

\(alpha_{ij}\)  = koefisien korelasi parsial antara peubah i dan j

Menurut Kaiser (1970) dalam Widarjono (2010) penilaian uji KMO adalah sebagai berikut :

Tabel Penilaian Uji KMO
Rentang Nilai KMO Kategori Penilaian
0,9≤KMO≤1,0 data sangat baik (marvelous) untuk analisis faktor
0,8≤KMO<0,9 data baik (meritorious) untuk analisis faktor
0,7≤KMO<0,8 data cukup (middling) untuk analisis faktor
0,6≤KMO<0,7 data kurang (mediocre) untuk analisis faktor
0,5≤KMO<0,6 data buruk (miserable) untuk analisis faktor
KMO≤0,5 data tidak dapat diterima (unacceptable) untuk analisis faktor

[otw_shortcode_info_box border_type=”bordered” border_color_class=”otw-aqua-border” border_style=”dashed” background_pattern=”otw-pattern-1"]Kriteria diatas dapat anda jadikan acuan penentuan penilaian pada output SPSS[/[/otw_shortcode_info_box]p>

Pengujian dengan MSA

Selanjutnya untuk menilai kelayakan setiap variabel untuk dianaisis faktor digunakan kriteria Measure of Sampling Adequacy (MSA).

Hair dan Anderson (1998) menyatakan bahwa MSA merupakan ukuran lain yang digunakan untuk mengukur interkorelasi antar variabel dan kesesuaian dari analisis faktor.

Santosa (2002) mengemukakan kriteria MSA yang digunakan adalah:

Tabel Kategori Nilai MSA
Rentang Nilai MSA Kriteria Kategori Penilaian
MSA = 1 variabel dapat diprediksi tanpa kesalahan oleh variabel lain
MSA ≥ 0,5 variabel masih bisa diprediksi dan dianalisis lebih lanjut
MSA < 0,5 variabel dapat dieliminasi untuk tidak disertakan dalam analisis faktor

[o[otw_shortcode_info_box border_type=”bordered” border_color_class=”otw-aqua-border” border_style=”dashed” background_pattern=”otw-pattern-1"]iteria diatas dapat anda jadikan acuan penentuan penilaian pada output SPSS[/ot[/otw_shortcode_info_box]

Hair (1998) menyatakan bahwa kenaikan nilai MSA ditentukan oleh: 1) kenaikan ukuran sampel, 2) kenaikan korelasi rata-rata, 3) kenaikan jumlah variabel, atau 4) penurunan jumlah faktor.

2. Ekstraksi faktor

Ekstraksi faktor adalah proses mereduksi sejumlah variabel menjadi sejumlah set variabel baru atau faktor yang jumlahnya lebih sedikit. Misal terdapat p variabel asal, setelah diekstraksi akan menjadi m faktor dimana m<p. metode ekstraksi faktor berkaitan dengan penentuan jumlah faktor yang menggambarkan struktur data. Supranto (2004) menyatakan bahwa terdapat 2 metode yang bisa dipergunakan dalam analisis faktor, khususnya untuk menghitung timbangan atau koefisisen skor faktor, yaitu Pricipal Component Analysis dan Common Factor Analysis.

Dalam Principal Component Analysis, jumlah varian dalam data dipertimbangkan. Jika tujuan dari penggunaan analisis faktor adalah untuk mereduksi data dan mendapatkan jumlah faktor minimum yang dibutuhkan untuk merepresentasikan data asal, maka direkomendasikan menggunakan Pricipal Component Analysis.

Di dalam Common Factor Analysis faktor diestimasi berdasarkan common variance, communalities dimasukkan dalam matriks korelasi. Metode ini dianggap tepat kalau tujuan utama penggunaan analisis faktor adalah untuk mengidentifikasi secara teoritis dimensi yang bermakna. Metode ini juga dikenal sebagai principal axis factoring.

Hair dan Anderson (1998) menyatakan bahwa terdapat beberapa kriteria dalam menentukan sejumlah faktor yang terbentuk, yakni:

a. Kriteria akar ciri

Teknik yang paling sering digunakan adalah dengan melihat akar ciri. Alasan penggunaan akar ciri adalah karena setiap variabel memiliki kontribusi nilai 1 terhadap total akar ciri. Sehingga faktor dengan nilai akar ciri ≥1 yang dianggap signifikan, sedangkan untuk faktor yang nilai akar cirinya < 1 dianggap tidak signifikan dan harus dikeluarkan dari model.

b. Kriteria persentase keragaman

Penentuan jumlah faktor dilihat dari nilai spesifik dari persentase kumulatif keragaman yang bisa dijelaskan oleh faktor yang terbentuk. Dalam penelitian ilmiah ekstraksi faktor tidak akan dihentikan sebelum mencapai total keragaman 95%, namun dalam ilmu sosial batas total keragaman yang digunakan hanya 60%.

c. Kriteria scree test

Teknik ini dilakukan dengan membuat plot antara jumlah faktor yang terbentuk (sumbu horizontal) dengan akar ciri (sumbu vertikal). Dengan melihat bentuk dari kurva yang telah diplotkan ditentukan jumlah faktor yang akan digunakan. Semakin melandai kurva maka ekstraksi faktor dihentikan.

Setelah menetukan jumlah faktor yang terbentuk, tahap selanjutnya adalah melakukan estimasi nilai loading untuk menetapkan variabel yang menyusun faktor. Johnson dan Wichern (2002) menuliskan 2 estimasi nilai loading, yaitu metode komponen utama (principal component analysis) dan metode maximum likelihood. Metode yang paling sering digunakan adalah metode komponen utama

karena metode maximum likelihood digunakan ketika faktor umum F dan faktor khusus ɛ diasumsikan berdistribusi normal. Metode komponen utama memanfaatkan dekomposisi spektral dari matriks covariance Σ untuk mengestimasi nilai loading. Jika matriks covariance sampel S mempunyai pasangan akar ciri dan vektor ciri (\(\hat{\lambda}_i,\hat{e}_i\)) dengan \(\hat{\lambda}_1\) ≥\(\hat{\lambda}_1\)≥…≥\(\hat{\lambda}_p\)≥0, maka;

\(s=\sqrt{\hat{\lambda_1}\hat{e_1}}\sqrt{\hat{\lambda_2}\hat{e_2}}\cdots \sqrt{\hat{\lambda_p}\hat{e_m}}\begin{bmatrix} \sqrt{\hat{\lambda_1}\hat{e^{‘}}_1}\\ \sqrt{\hat{\lambda_2}\hat{e^{‘}}_2}\\ \vdots \\ \sqrt{\hat{\lambda_p}\hat{e^{‘}}_m} \end{bmatrix} +\begin{bmatrix} \hat{\psi _1} &0 &\cdots & 0\\ 0& \hat{\psi _2} & \cdots &\vdots \\ \vdots &\vdots & \ddots & \\ 0& 0& \cdots & \hat{\psi _m} \end{bmatrix}\) \(s=\tilde{L}\tilde{L}^{‘}+\tilde{\psi }\)

dimana,  \(\psi _i=s_{ii}-\sum_{j=1}^{m}\tilde{l}_{ij}^{2};i=1,2,..,p\)

Maka estimasi matriks loadingnya adalah :\(\hat{L}=\sqrt{\hat{\lambda_1}\hat{e}_1}\sqrt{\hat{\lambda_2}\hat{e}_2}\cdots \sqrt{\hat{\lambda_p}\hat{e}_m}\)

Dalam kasus dimana peubah memiliki satuan yang berbeda-beda, maka perlu dilakukan standarisasi dengan cara :

\(Z_j=\begin{bmatrix} \frac{x_{j1}-\bar{x}_2}{\sqrt{s_{22}}}\\ \frac{x_{j1}-\bar{x}_1}{\sqrt{s_{11}}}\\ \vdots \\ \frac{x_{j1}-\bar{x}_p}{\sqrt{s_{pp}}} \end{bmatrix} ; j=1,2,…,n\)

sehingga matriks covariance yang digunakan adalah matriks korelasi R dari observasi x1, x2, …, xn. Standarisasi berguna untuk menghindari masalah peubah dengan variasi besar yang memengaruhi nilai loading factors.

3. Rotasi faktor

Interpretasi hasil analisis yang dilakukan seringkali menyusahkan. Langkah penting dalam interpretasi faktor adalah rotasi faktor (Hair, 1998) Rotasi dilakukan sampai struktur yang lebih sederhana diperoleh. Dua jenis metode untuk rotasi faktor adalah Orthogonal dan Oblique (Rummel, 1970).

Rotasi orthogonal mengasumsikan bahwa faktor-faktor terbentuk adalah independent, proses rotasinya dengan mempertimbangkan sudut 900 antar sumbu kedua faktor umum. Sedangkan rotasi oblique tidak mengharuskan bahwa sudut yang digunakan adalah 900.

Beberapa ahli menyarankan untuk menggunakan rotasi orthogonal yakni varimax (variance of maximum) karena menghasilkan struktur faktor yang sederhana dengan memaksimumkan jumlah varians dari faktor yang memuat nilai loading kuadrat (Johnson dan Wichern, 2002).

Menurut Wijaya (2010) dengan metode varimax banyak variabel dapat memiliki loading tinggi atau mendekati tinggi pada faktor yang sama karena fokus tekniknya untuk menyederhanakan baris, sehingga kecenderungan memiliki loading tinggi dan beberapa loading mendekati 0 (nol) pada setiap kolom matrik. Oleh karena itu, pada penelitian kali ini metode rotasi yang digunakan adalah rotasi orthogonal dengan varimax.

Rotasi Varimax adalah rotasi yang memaksimalkan faktor pembobot dan mengakibatkan korelasi peubah-peubah dengan suatu faktor mendekati satu serta korelasi dengan faktor lainnya mendekati nol sehingga mudah diinterpretasikan. Rotasi tersebut menghasilkan matriks loading baru \(L^{*}\) yaitu:

\(L^{*}_{(p\times q)}=L_{(p\times q)}.T_{(q\times q)}\)

Dimana T= matriks transformasi yang dipilih sehingga T’T=TT’ = I

Matriks tranformasi T ditentukan sedemikian rupa sehingga total keragaman kuadrat loading L menjadi maksimum.

Rotasi merupakan suatu upaya untuk menghasilkan faktor penimbang baru yang lebih mudah diinterpretasikan. Yaitu dengan mengalikan faktor penimbang awal dengan matriks transformasi yang bersifat orthogonal, sehingga matriks korelasinya tidak akan berubah. Dari merotasi matriks loading menyebabkan setiap peubah asal mempunyai korelasi yang tinggi terhadap faktor tertentu saja sedangkan faktor lain mempunyai korelasi relatif sehingga setiap faktor akan lebih mudah diinterpretasikan.

4. Menghitung skor faktor

Skor faktor merupakan ukuran komposit dari masing-masing variabel asal pada masing-masing faktor yang diekstraksi dalam analisis faktor (Hair, 1998). Skor faktor merupakan skor komposit yang diestimasi untuk setiap responden pada faktor turunan (derived factors) (Supranto, 2004).

Skor faktor biasanya dihitung jika hasil dari analisis faktor akan digunakan untuk analisis lanjutan, karena sebenarnya tanpa menghitung skor faktor hasil dari analisis ini sudah bermanfaat yaitu jika tujuannya hanya ingin mereduksi variabel. Penghitungan skor faktor dalam penelitian ini digunakan untuk mencari nilai penimbang dalam penyusunan indeks komposit.

Dalam penghitungan skor faktor terdapat beberapa metode estimasi yang sering digunakan yaitu metode weight least square dan regresi. Metode weight least square digunakan jika dalam mengestimasi nilai loading digunakan metode maximum likelihood (Johnson dan Wichern, 2002). Oleh karena dalam penelitian ini estimasi nilai loading dilakukan dengan metode komponen utama maka dalam mengestimasi skor faktor digunakan metode regresi. Estimasi skor faktor dengan metode regresi dapat diperoleh dengan cara berikut :

\(\hat{f}_{(n\times m)}=(x_j-\bar{x})_{(n \times p)} S^{-1}_{(p\times p)}\hat{L}_{(p \times m)}\)  dimana, j=1, 2, … n

Keterangan:

\(\hat{f}\) : skor faktor
S : matriks kovarian sampel
\(\hat{L}\) : estimasi nilai loading

Atau jika dengan matriks korelasi estimasi skor faktornya menjadi :

\(\hat{f}_{(n \times p)}=z_{(n \times p)}R^{-1}_{(p\times p)}\hat{L}_{z(p \times m)}\)   dimana, j=1, 2, … n

Keterangan:

: matriks korelasi sampel

\(z_{(n \times p)}=(x_j-\bar{x})_{(n\times p)}D^{-1/2}_{(p\times p)}\)

dimana;

\(D^{-1/2}_{(p\times p)}=\begin{bmatrix} \frac{1}{\sqrt{S_{11}}} & 0 & \cdots & 0\\ 0& \frac{1}{\sqrt{S_{22}}} &\cdots & 0\\ \vdots & \vdots & \ddots & \vdots\\ 0& 0 & \cdots & \frac{1}{\sqrt{S_{pp}}} \end{bmatrix}\)

Skor faktor yang telah diperoleh pada analisis faktor ini selanjutnya digunakan keperluan analisis dan inferensia sesuai kebutuhan penelitian anda.

Apakah Artikel ini membantu anda?Mohon beri kan penilaian dengan memberi bintang.

Add a Comment

Your email address will not be published. Required fields are marked *