Cara Memperbaiki & Mengatasi Error Cakupan Indeks Google Webmaster Tools, Index Coverage Status Report

Lagi blogwalking ke forum IAPD, ketemu thread yang dibikin oleh om Nino Artikel.

Sampean mempertanyakan masalah tentang error di New Search Console: New Search Console Beta Experience terkait masalah Cakupan Indeks.

Sampen mengaku mendapatkan email dari Google Search Console, dengan bunyi kurang lebih seperti ini:

Yth. pemilik https:/domain.blogspot.com/,

Search Console telah mengidentifikasi bahwa situs Anda terpengaruh oleh 1 masalah baru terkait Cakupan indeks. Artinya, Cakupan indeks dapat terkena dampak negatif di hasil Google Penelusuran. Sebaiknya Anda meninjau dan mempertimbangkan untuk memperbaiki masalah ini.

Masalah baru ditemukan:
Diindeks, meski diblokir oleh robots.txt

Bagaimana dengan saya? Wah, parah ternyata. 18 valid diperingatkan, 24 valid dan 288 dikecualikan.

Error Index Coverage Status Report: Cakupan Indeks

Terus, apakah saya panik? Tidak, dong. Mengapa? Sebab boleh diabaikan karena "Diindeks, meski diblokir oleh robots.txt", apalagi New Search Console ini masih dalam Beta.

Jadi, karena Search Console versi terbaru ini masih Beta, masih agak-agak gimana gitu.

Cara Mengatasi Error Index Coverage Status Report: Cakupan Indeks


Cukup dengan menghilangkan kata "Search" dibagian pengaturan robot.txt (baik di edit atau ditambahkan).

Awalnya seperti ini Disallow: /search, lalu kita ganti dengan Disallow: /.

Pada hakikatnya, masalah di atas tidak mempengaruhi apapun termasuk ranking blog kita. Saya sudah blogwalking, sudah ketemu jawabannya.

Hanya saja, masalah itu tergolong baru dan itu membuat kita panik sendiri. Awalnya juga saya panik kok.

Nazrina, salah satu anggota terbaik di Forum Google Produk mengatakan:

Robots.txt situsmu tidak ada masalah. Itu adalah robots.txt default dari Blogger.


Yang diblokir dari perayapan adalah halaman hasil pencarian (/search) di situsmu, yang mana itu memang sebaiknya tidak perlu dirayapi.


Jadi tidak ada yang perlu dikhawatirkan. Data di Search Console di atas sifatnya hanya laporan saja.


Dan meski diblokir dari perayapan, URL-URL tersebut memang bisa saja diindeks. Tapi tetap saja, itu bukan masalah.


Peringatan itu berkaitan dengan halaman /search diblokir oleh file robots.txt, yaitu pada kalimat:



Disallow: /search

Dan begitu diblokir dari perayapan, googlebot tidak akan bisa melihat tag meta "index"-nya. Tapi memang meski diblokir di robots.txt, URL tersebut bisa saja diindeks. Tapi tetap saja, hal ini bukan masalah yang perlu diperbaiki.


Yang penting adalah, abaikan saja.


Laporan di Search Console tersebut di atas hanya memberitahu URL-URL mana yang diblokir dari perayapan supaya pemilik situs bisa mengecek bahwa yang diblokir itu apa memang sengaja diblokir atau tidak.


Kalau ingin tahu perihal ini lebih lanjut, Anda bisa masuk ke laman ini: Index Coverage status Report.
Share To:

Arief Ghozaly

Post A Comment:

1 comment so far add yours

Anonymous mengatakan...

TQ bos, gue kira apaan tadi. sempet panik gue.