Cara Mengatasi Diindeks Meski Diblokir Oleh Robots.txt



Tips Blogerku -  Apa itu dindeks meski diblokir oleh robot.txt ? mari kita bahas apa itu dindeks meski diblokir oleh robot.txt ?

Dindeks meski diblokir oleh robot.txt merupakan suatu masalah yang sering menghampiri para pengelolah blog, terutama yang menggunakan template Blogger.

Mungkin ada sebagian blogger yang belum tahu penyebab utamanya muncul peringatan ini adalah karena mesin pencari Google sudah mengabaikan perintah noindex menggunakan file robots.txt.

Di blogger sampai saat ini masih menggunakan file robots.txt untuk mencegah halaman tertentu supaya tidak terindeks oleh mesin pencari.

Sebenarnya masalah ini bukanlah masalah yang serius yang bisa berdampak buruk terhadap blog anda, karna pada dasarnya halaman-halaman tersebut memang sengaja diblokir oleh Blogger.

Cara Mengatasinya bagaimana Diindeks Meski Diblokir Oleh Robot.txt, ikuti caranya sebagai berikut :

1. Login ke blog anda

2. Kemudian pilih setelan > preferensi penelusuran

3. Cari robot.txt khusus > klik edit

4. Pilih aktifkan konten robot.txt khusus > pilih ya

5. Salin kode dibawah ini


User-agent : Mediapartners-Google
Disallow:

User-agent : *
Disallow: /
Allow: /

Sitemap:
https://www.nama domain anda/sitemap.xml

Catatan : Ganti nama domain anda, diisi dengan alamat blog atau domain anda 

Baca Juga : CARA MENGATASI ERROR BREADCRUMB DI GOOGLE SEARCH CONSOLE
 

Jika sudah melakukan cara diatas jangan lupa untuk melakukan validasi di Google Search Console, agar masalah peringatan tersebut cepat diperbaiki.

Biasanya membutuhkan waktu kurang lebih satu minggu untuk Google memverifikasi proses perbaikan tersebut, dan jika berhasil maka masalah peringatan tersebut akan menghilang dengan sendirinya.

Nah itulah bagaimana cara mengatasi diindeks meski diblokir oleh robot.txt.

Semoga bermanfaat bagi anda yang membutuhkannya.



Post a Comment

0 Comments