Jumat, 26 Juni 2015

Latent Semantic Indexing

LSI (Latent Semantic Indexing)
Tadi sore saya ngasih training dikit ke tim saya di kantor, intinya sih ngulas artikel seo friendly. Tapi ada yang menarik, salah satunya jadi kepikiran mengulas tentang LSI. Nah saya share disini ya ..
.
Apa itu ya LSI? LSI itu adalah index (list) yg digunakan oleh robot google untuk mengidentifikasi suatu situs. Secara sederhananya begini, misalkan kita ngetik kata "Apple", nah apakah "apple" yang dimaksud adalah buah atau "apple" merk komputer? Kalo di dalam suatu web menyebutkan kata "pc" dan "tab" maka kata apple yang dimaksud adalah merk. Tapi kalau dalam web tersebut menyebutkan kata "fruit" dan "fresh", maka kata "apple" yang dimaksud adalah buah.
.
Gunanya apa?
1. Agar google dapat menampilkan halaman situs yang relevan dengan keyword yang kita cari. Nanti detilnya dijelasin di bawah.
2. Untuk menilai autoritas suatu website.
.
Agak panjang nih penjelasannya, sabar ya ... pelan-pelan mencernanya, saya juga mikir dulu buat nyari analogi yang mudah dipahami .. *minumdulu* ..
.
Gini, saya lupa nama situs yang bisa menjelajahi kata apa yang paling sering diulang pada suatu website. Biar mudah, kita sebut aja situs itu namanya checker.
.
Kasus 1 :
Misalnya saya punya web namanya "campursari" yang saya masukkan ke situs checker tersebut buat ngecek kata apa yang paling sering diulang. Inget, "kata yang paling sering" diulang. Setelah di-fetch, muncul deh (misalnya) kata yang paling sering diulang yaitu :
gado-gado = diulang 30x dari 10 page (berarti masing masing page menyebut 3x).
ketoprak = 10x dari 5 page (berarti masing masing page menyebut 2x).
soto = 5 x dari 5 page (berarti masing masing page menyebut 1x).
.
kasus 2 :
hasil fetch :
gado-gado = 30x dari 1 page (1 page menyebut 30x).
ketoprak = 10x dari 2 page (masing masing page menyebut 5x).
soto = 6 x dari 3 page (berarti masing masing page menyebut 2x).
.
Kesimpulannya apa?
1). kalau situs cheker itu adalah crawlernya gugel maka akan mengidentifikasi bahwa web "campursari" adalah web makanan/makanan tradisional.
2). pada kasus 2 ada indikasi spam atau keyword stuffing (numpukin keyword di satu halaman). Kenapa? liat aja, kata gado-gado diulang sebanyak 30x dalam 1 halaman grin emotikon
.
Intinya, robot google itu diprogram berdasarkan perilaku dan kebutuhan manusia. Jadi kalo kita memahami kebutuhan dan perilaku banyak orang, maka kita bisa ngakalin robot google pacman emotikon
.
Kesimpulannya :
itulah sebabnya penting untuk membuat blog dalam 1 konsep. Misalnya blog kita ngomongin makanan tradisional, maka ulas aja semua tentang makanan tradisional, jangan nyampur sama (misalnya) otomotif. Dari hasil fetch di atas, jika kata yang diulang tersebar pada banyak halaman (kasus 1) maka gugel akan menganggap bahwa web kita adalah web yang berautoriti dan web yang berautoriti lebih mudah serp-nya. Cara paling gampang banget, kalo kita pengen bikin blog tentang kue, pasti di blog secara sadar atau nggak akan menyebutkan sendok, garpu, terigu, resep, gula, telur. Jadi, robot gugel udah punya daftar LSI berdasarkan kebiasaan kita (human).
.
panjang bener ya? sebetulnya sih masih panjang, ntar disambung kalo inget. (Diar Seonubi)