Cara Agar Blog 100% Cepat di Index oleh Google

23:10
Cara Agar Blog 100% Cepat di Index oleh Google

Salam Blogger, Kali ini Bloggingpasuruan kembali membagikan tutorial Cara Agar Blog 100% Cepat di Index oleh Google. Blog yang cepat di Index google adalah keinginan semua webmaster dan sobat blogger tentunya. Cara ini sebenarnya mudah dan sederhana dilakukan, agar artikel yang baru cepat di publikasikan dan di Index oleh google namun cara ini tampak tidak efisien karena dilakukan secara manual… alias Sobat harus mengirim URL setiap artikel baru yang dipublikasikan, soal waktu tidak lebih dari 3 menit untuk mengirim URL posting baru Sobat.

Langsung saja ke pokok bahasan Cara  Agar ARTKEL Blog 100% Cepat di Index oleh Google

1. Sobat Blogger " klik "  link ini dulu Webmaster Submit URL

Cara Agar Blog 100% Cepat di Index oleh Google

2. Masukkan Url Artikel sobat, contoh : http://bloggingpasuruan.blogspot.com/contoh-artikel.html

3. Masukkan kode verifikasi, dan kirim permintaan, artikel sobat sudah terindex oleh google.

4. Silahkan coba di cek dengan masukkan URL artikel yang sobat kirimkan tadi ke dalam google search >>lalu klik “ cari /enter “

Selesai

Saya akan sangat berterima kasih jika sobat Blogger berkenan meninggalkan komentar, saran atau tambahan informasi serta pertanyaan seputar artikel Cara Agar Blog 100% Cepat di Index oleh Google. Semoga bermanfaat dan terima kasih..

Cara Mengatasi Crawl Error dengan Google Webmaster Tools

21:03

Cara Mengatasi Crawl Error dengan Google Webmaster Tools

Salam Bloggerrrr, Kali Bloggingpasuruan mau posting tentang tutorial Cara Mengatasi Crawl Error dengan Google Webmaster Tools. URL crawl error di sebabkan karena adanya link url yang dituju tidak ada konten ( misalnya link url posting sudah Sobat hapus/pindahkan atau jika Sobat tidak menghapus namun Url link posting Sobat dirubah judul/title artikelnya ). Sehingga spider ketika mengindex link tersebut tidak ada konten dan menganggap 404 page not found.

Tentunya hal ini harus segera di atasi jika tidak akan berdampak pada hasil pencarian blog di google. Karena search engine google tidak suka jika terdapat link error.

Berikut ini Caranya memperbaiki/menghapus link yang error di Crawl Error Webmaster Tools.

Sebelum sobat mengatasi URL Crawl error sebaiknya mengetahui bagaimana mengecek URL error di webmaster tools google:

1. Silahkan masuk ke link Webmaster tools google

2. Kemudian pilih nama blog Sobat yang akan dicek

Cara Mengatasi Crawl Error dengan Google Webmaster Tools

3.Klik menu Crawl >>Crawl Error yang ada di menu samping kiri ( lihat gambar dibawah )

Cara Mengatasi Crawl Error dengan Google Webmaster Tools


4.Sobat blogger akan melihat beberapa link error

Cara Mengatasi Crawl Error dengan Google Webmaster Tools

Setelah sobat mengetahui link apa saja yang error sekarang cara mengatasi URL Crawl Error:

1. Klik menu Google Index >> Remove URLs

Cara Mengatasi Crawl Error dengan Google Webmaster Tools


2.Copy “ link yang error “ saat sobat mengecek crawl error-nya

3.Klik Create a New Removal Requestdan paste link error yang di copy tadi, seperti gambar

Cara Mengatasi Crawl Error dengan Google Webmaster Tools


4. Klik Continue

Cara Mengatasi Crawl Error dengan Google Webmaster Tools


5.Pada Reason pilih Remove page from search result and cache

6.Klik Submit Request

Cara Mengatasi Crawl Error dengan Google Webmaster Tools


7.Selesai. Tinggal ditunggu sampai google melakukan tindakkan terhadap request link errornya.


Catatan : Perbaikan Crawl Error ini sifatnya tidak instant namun perlu beberapa hari untuk memperbaikinya ( waktunya tergantung dari berapa banyak error link-nya )


8. Lakukan hal yang sama jika masih terdapat link error yang lain.

Dengan memperbaiki atau mengatasi URL Crawl Error di Webmaster Tools dapat meningkatkan SEO blog sobat. Sehingga hasil SERP tidak menurun, Lakukan pengecekan secara berkala statistik blog sobat di Webmaster Tools, siapa tahu ada link error lainnya atau duplicate content.

Saya akan sangat berterima kasih jika Sobat Blogger berkenan meninggalkan komentar, saran dan pertanyaan mengenai tutorial Cara Mengatasi Crawl Error dengan Google Webmaster Tools. Semoga Artikel ini membantu sobat blogger semuanya.. terima kasih

Cara Optimalisasi SEO Blog dengan Custom Robots.txt

06:30
Cara Optimalisasi SEO Blog dengan Custom Robots.txt

Salam Blogger, Share lagi yaa kali Bloggingpasuruan akan memberikan tutorial Cara Optimalisasi SEO Blog dengan Custom Robots.txt. Namun sebelumnya alangkah baiknya kalau kita memahami apa itu robot txt dan fungsinya, yang pertama tentang pengenalan apa robot txt blogger itu..?

Artikel ini terbagi menjadi dua bagian :

Artikel pertama yaitu artikel yang saat ini anda baca yang membahas tantang definisi,fungsi,serta manfaat dari robot txt blog.

Cara Pemasangan robot txt pada blog anda bisa membacanya dibawah ini

Robot txt adalah Robot Exclusion Standard, atau sering kita kenal sebagai Robots Exclusion Protocol atau robots.txt protokol.

Apa fungsi dari robot txt blog..?fungsinya adalah untuk membatasi akses robot mesin pencari (Search engine misal : Google,Bing,Yahoo dll) saat mengcrawl blog kita. Sebelum mereka menjelajahi semua halaman blog kita, mereka memeriksa terlebih dahulu untuk melihat apakah sebuah file robots.txt ada atau tidak di dalam blog kita.

Lalu apa manfaatnya memasang robot txt di blog..? pemasangan robot txt di blog mempunyai kaitan yang banyak sekali untuk SEO,berikut adalah beberapa garis besar manfaat dari pemasangan robot txt di blog :

1.Mencegah duplicate content

Salah satu manfaat  yang sangat mengagumkan dari pemasangan robot txt adalah mencegah terjadinya dublicate content,dublicate content memang sangat sering terjadi Ini di sebabkan hal ini dikarenakan widget archive blog ikut terindex oleh mesin pencari. Sehingga terdapat 2 link atau url namun merujuk hanya kepada satau halaman atau konten.nah dengan adanya robot txt blog kita bisa membatasi pengindexan mesin pencari untuk mencegah dublicate content.

2.Menjaga privasi file atau data

Dengan adanya pembatasan pengindex.an oleh robot txt terhadapa mesin pencari,maka di hasil pencarian tidak akan muncul data atau file apa yang di anggap privasi oleh anda.ini juga sangat membantu sekali khususnya yang sedang mengelolah website yang cukup popular,untuk memprivasi data-data penting bisa menggunakan robot txt ini.

3.membantu optimalisasi SEO blog

Manfaat yang selanjutnya adalah kemampuan dari Robots.txt yang dapat mengarahkan spider bot mengcrawling halaman yang ditargetkan bisa dimanfaatkan untuk mengarahkan spider bot 
pada halaman penting seperti halaman konten agar halaman tersebut cepat di index oleh mesin pencari.selain itu dengan melakukan pembatasan-pembatasan terhadap content-content dan data-data yang tidak perlu di index oleh mesin pencari,dapat mempercepat proses sepider bot untuk mengcrawl sehingga proses indexing dilakukan pada halaman yang perlu-perlu saja dan juga mempercepat waktu spider bot untuk melakukan crawl di blog kita. 

Pengenalan Fungsi Perintah Script Robots.txt :
  

user-agent: *
    Disallow:

Perintah seperti di atas mengacu dan memerintahkan untuk semua crawler melakukan index dan crawl blog Sobat, baik itu milik mesin pencari atau yang lainnya, boleh melakukan index dan crawl di blog Sobat.

Jika anda menginginkan melarang crawlertidak ingin mengakses blog Sobat ,maka akan menambahkan perintah dengan sedikit memodifikasi perintah sebelumnya yaitu dengan menambahkan kode slash ( / ).

user-agent: *
    Disallow: /

Namun jika sobat ingin melarang robot untuk melakukan index pada direktori tertentu  kita tambahkan kode lagi pada kode sebelumnya yaitu menambahkan nama direktori setelah tanda slash ( / ) .contoh misalnya anda tidak menginginkan robot untuk tidak mengindex halaman statis blog anda maka perintahnya seperti ini :

user-agent: *
    Disallow: /p  (sesuai dengan nama direktori halaman statis Blogger)
    Allow: /

Allow: / ditambahkan dengan maksud untuk mengizinkan crawl untuk mengindex root directory, direktori lain, dan halaman lainnya.arti dari perintah robot txt di atas adalah crawl boleh mengindeks seluruh blog kecuali halaman statis blog.dan sebenarnya Allow: / tidak ditambahkan tidak akan jadi masalah.

Jika Sobat Blogger menginginkan robot crawl tertentu milik mesin pencari tidak boleh mengindex sedangkan yang lainnya boleh maka perintahnya seperti ini. Misalnya anda melarang robot mesin pencari google tidak mengindex halaman anda,maka anda cukup menambahkan nama user agentnya pada baris lain seperti ini:

user-agent: *
    Disallow:
    user-agent: Googlebot
    Disallow: /p(nama user agentnya disini)
    Allow: /

Maka nantinya halaman yang anda maksud untuk tidak di index maka tidak akan di index oleh mesin pencari google.

Untuk mengoptimalkan SEO Blog dengan Robot txt berikut ini cara pemasangan robot txt pada Blog

1. Silahkan masuk akun Blogger Sobat

2. Kemudian klik menu Setting >> Prefensi penelusuran, pada robots.txt khusus segera aktifkan dengan cara  klik edit dan pilih yes

3. Kemudian langkah selanjutnya adalah menambahkan perintah robot txt blognya,caranya tambahkan perintah robot txt dibawah ini :

User-agent: Mediapartners-Google
Allow:/
User-agent: Googlebot
Disallow: /?m=1
Disallow: /?m=0
Disallow: /*?m=1
Disallow: /*?m=0
User-agent: *
Disallow: /search?*
User-agent: Twitterbot
Allow:/
User-agent: *
Disallow: /search
Disallow: /p/*
Disallow: /view/*
Allow: /
Sitemap: http://namablog-anda.blogspot.com/feeds/post/default?orderby=UPDATED
Catatan : Yang berwarna merah silahkan ganti dengan alamat blog anda.

4. Dan kemudian klik simpan perubahan.dan robot txt blog anda sudah aktif

Dan untuk melengkapi custom robot txt blog anda alangkah baiknya kalau kita juga melakukan setting tag headernya juga,caranya hampir sama dengan mensetting robot txt tadi yaitu klik edit dan pilih yes pada Tag tajuk robot khusus dan centang seperti gambar dibawah ini :

Cara Optimalisasi SEO Blog dengan Custom Robots.txt

5. Selesai

Saya akan sangat senang sekali jika Sobat Blogger berkenan memberikan komentar dan saran tambahan informasi atau pertanyaan tentang tutorial Cara Optimalisasi SEO Blogger dengan Custom Robots.txt. Terima kasih dan semoga bermanfaat…