LSI (Latent Semantic Indexing)
Tadi sore saya ngasih training dikit
ke tim saya di kantor, intinya sih ngulas artikel seo friendly. Tapi ada
yang menarik, salah satunya jadi kepikiran mengulas tentang LSI. Nah
saya share disini ya ..
.
Apa itu ya LSI? LSI itu adalah index
(list) yg digunakan oleh robot google untuk mengidentifikasi suatu
situs. Secara sederhananya begini, misalkan kita ngetik kata "Apple",
nah apakah "apple" yang dimaksud adalah buah atau "apple" merk komputer?
Kalo di dalam suatu web menyebutkan kata "pc" dan "tab" maka kata apple
yang dimaksud adalah merk. Tapi kalau dalam web tersebut menyebutkan
kata "fruit" dan "fresh", maka kata "apple" yang dimaksud adalah buah.
.
Gunanya apa?
1. Agar google dapat menampilkan halaman situs yang relevan dengan keyword yang kita cari. Nanti detilnya dijelasin di bawah.
2. Untuk menilai autoritas suatu website.
.
Agak panjang nih penjelasannya, sabar ya ... pelan-pelan mencernanya,
saya juga mikir dulu buat nyari analogi yang mudah dipahami ..
*minumdulu* ..
.
Gini, saya lupa nama situs yang bisa
menjelajahi kata apa yang paling sering diulang pada suatu website. Biar
mudah, kita sebut aja situs itu namanya checker.
.
Kasus 1 :
Misalnya saya punya web namanya "campursari" yang saya masukkan ke
situs checker tersebut buat ngecek kata apa yang paling sering diulang.
Inget, "kata yang paling sering" diulang. Setelah di-fetch, muncul deh
(misalnya) kata yang paling sering diulang yaitu :
gado-gado = diulang 30x dari 10 page (berarti masing masing page menyebut 3x).
ketoprak = 10x dari 5 page (berarti masing masing page menyebut 2x).
soto = 5 x dari 5 page (berarti masing masing page menyebut 1x).
.
kasus 2 :
hasil fetch :
gado-gado = 30x dari 1 page (1 page menyebut 30x).
ketoprak = 10x dari 2 page (masing masing page menyebut 5x).
soto = 6 x dari 3 page (berarti masing masing page menyebut 2x).
.
Kesimpulannya apa?
1). kalau situs cheker itu adalah crawlernya gugel maka akan
mengidentifikasi bahwa web "campursari" adalah web makanan/makanan
tradisional.
2). pada kasus 2 ada indikasi spam atau keyword
stuffing (numpukin keyword di satu halaman). Kenapa? liat aja, kata
gado-gado diulang sebanyak 30x dalam 1 halaman grin emotikon
.
Intinya, robot google itu diprogram berdasarkan perilaku dan kebutuhan
manusia. Jadi kalo kita memahami kebutuhan dan perilaku banyak orang,
maka kita bisa ngakalin robot google pacman emotikon
.
Kesimpulannya :
itulah sebabnya penting untuk membuat blog dalam 1 konsep. Misalnya
blog kita ngomongin makanan tradisional, maka ulas aja semua tentang
makanan tradisional, jangan nyampur sama (misalnya) otomotif. Dari hasil
fetch di atas, jika kata yang diulang tersebar pada banyak halaman
(kasus 1) maka gugel akan menganggap bahwa web kita adalah web yang
berautoriti dan web yang berautoriti lebih mudah serp-nya. Cara paling
gampang banget, kalo kita pengen bikin blog tentang kue, pasti di blog
secara sadar atau nggak akan menyebutkan sendok, garpu, terigu, resep,
gula, telur. Jadi, robot gugel udah punya daftar LSI berdasarkan
kebiasaan kita (human).
.
panjang bener ya? sebetulnya sih masih panjang, ntar disambung kalo inget. (Diar Seonubi)