Cara Mempecepat Index Google Untuk Blog Baru Dengan Mudah

Cara Mempecepat Index Google Untuk Blog Baru Dengan Mudah

Cepat atau lambat pasti website kita akan di- index Google, begitu kata salah satu praktisi internet marketer. Ya, memang, hal ini sudah pasti karena teorinya pun berkata begitu. Namun, adakah cara agar website kita dapat lebih cepat di- index oleh Google atau agar di-indeks secara maksimal? Tentu saja ada! Dan ini yang akan kita bahas di postingan kali ini.

Strategi Agar Blog Cepat Ter- Index Google dan Terindeks Maksimal

Ketika kita membuat website dan tidak membuat perintah untuk mencekal robot bot, maka secara natural proses crawling telah sedang terjadi di website kita. Namun untuk meng-crawling secara keseluruhan dan menjadikan website Anda langsung tampil di peringkat atas halaman pencarian, tentu tidak semudah itu. Anda perlu menyiapkan konten yang berkualitas untuk pembaca dan melengkapinya dengan teknik SEO yang baik.

Untuk dapat mengikuti tips ini, pastikan bahwa Anda sudah memiliki sebuah akun di Google Webmaster. Google Webmaster adalah perangkat wajib bagi blogger dan internet marketer. Dengan akun tersebut, Anda dapat melakukan analisa terhadap performa website Anda, sekaligus meningkatkan performanya dengan tool yang tersedia. Jika Anda belum memiliki akun Google Webmaster, Anda dapat mendaftar dengan mudah menggunakan akun gmail Anda.

Setelah memiliki akun tersebut, silahkan login dan mari kita mulai mempraktekkan tips ini. Berikut ini adalah beberapa strategi yang dapat membantu blog Anda agar cepat ter- indeks di mesin pencari:

1. Cek SEO On-Page Anda
Sebelum menengok keluar, periksa dulu faktor dalam website Anda. Ya, Anda harus melakukan optimasi On-Page dengan baik terlebih dahulu. SEO On-Page akan menjadi langkah ringan Anda sebelum masuk ke tahap optimasi Off-Page, sekaligus merupakan salah satu syarat agar Google dapat meng- indeks website Anda depat baik. Untuk SEO On-Page ini tidak akan Saya bahas lebih lanjut, karena sudah pernah kita ulas secara lengkap dan panjang lebar di artikel sebelumnya. Langkah- langkah di bawah ini pun sebenarnya secara keseluruhan adalah bagian dari optimasi SEO On-Page. Namun yang Saya lebih tekankan untuk nomor satu ini adalah struktur website dan pemasangan meta tag yang dibutuhkan.

2. Membuat dan Mengirim Sitemap
Sudahkan Anda membuat sitemap untuk website Anda? Jika belum, Anda telah melewatkan salah satu faktor penting dalam optimasi SEO On Page. Untuk membuat Sitemap, Anda dapat melakukannya dengan mudah menggunakan plugin ‘Google XML Sitemap’ atau ‘WordPress SEO by Yoast’. Setelah memiliki Sitemap, maka langkah selanjutnya adalah mengirim sitemap XML Anda ke index Google Webmaster. Caranya adalah sebagai berikut:
*) Login ke akun Google Webmaster Anda
*) Di beranda, klik website Anda untuk masuk ke panel akun websiteMasuk ke panel akun website Anda kemudian pilih ‘Perayapan > Peta Situs’.
*) Masukkan url sitemap Anda, lalu pilih ‘Kirim Peta Situs’
*) Selesai

Ketika sitemap Anda selesai dikirim, maka Google akan memproses Sitemap Anda. Anda dapat melihat statusnya di panel ‘Peta Situs’ tersebut, dan melihat apakah status Sitemap tersebut masih ‘pending’ atau sudah berhasil. Biasanya sih langsung berhasil dan kadang bisa juga menunggu beberapa jam, jadi Anda dapat memantaunya sampai statusnya berubah menjadi berhasil.

Jika status Sitemap Anda masih pending selama satu hari, maka kemungkinan ada yang kurang tepat dengan file Sitemap tersebut. Misalnya jika Anda menggunakan plugin Yoast SEO, maka sitemap Anda akan berakhiran ‘/sitemap_index.xml’ dan sitemap tersebut biasanya akan pending karena tidak langsung berisi file direktori website Anda, melainkan berisi beberapa kategori sitemap. Untuk membantu Google Webmaster mengindeks sitemap ini dengan baik, maka submit lah berdasarkan kategori yang dipisahkan oleh Yoast SEO tersebut, yaitu menjadi :
*) /post-sitemap.xml
*)/ page-sitemap.xml
*)/category-sitemap.xml
*) /post_tag-sitemap.xml

Lihat Gambar :
peta situs, sitemap

Setelah selesai, maka tunggu lah beberapa saat, maka status Sitemap Anda akan berubah menjadi ‘Berhasil’ dan dapat Anda status indeks nya.

3. Kirim URL Artikel Secara Manual
Langkah selanjutnya, untuk mempercepat index Google, maka Anda dapat membantu Google untuk melakukan index- ing secara keseluruhan terhadap artikel yang Anda publish di blog. Seringkali, dalam proses index nya ada beberapa artikel yang terlewat. Anda dapat melihatnya di status perayapan. Misalnya dari 134 post, maka mungkin ada 127 saja yang ter- indeks dan sisanya terlewat oleh Google karena beberapa faktor.

Untuk membantu Google mengindeks secara sempurna, maka masuk lah ke bagian ‘Perayapan’ lalu pilih’Fetch as Google’ atau ‘Ambil sebagai Google’. Dengan fitur ini, maka Anda membantu Google untuk dapat meng-crawling website Anda secara keseluruhan.

4. Membuat dan Mengatur File Robots.txt
Sudahkah Anda membuat dan mengatur file robots.txt? Jika belum, maka buat dan setting lah saat ini juga. File ini memang sekilas terlihat sebagai file sederhana saja, namun robots.txt memiliki peranan yang cukup besar untuk memberikan otoritas kepada Google bot dalam meng- indeks website kita. Dengan file ini, maka kita dapat meminta Google bot untuk meng- indeks halaman website kita dan tidak meng-indeks halaman tertentu. Bisa dibilang, salah satu manfaat robots.txt adalah sebagai security website kita untuk robot crawler dengan cara memberikan batasan fokus indexing.

Jika Anda telah melakukan keempat langkah tersebut, maka index google terhadap blog Anda akan menjadi lebih mudah karena google bot akan mulai menjelajah dengan lebih baik. Anda mungkin dapat mencoba mencari kueri atau kunci website Anda di Google untuk mengecek apakah website Anda sudah betul- betul terindeks atau belum.

Saya sendiri telah mempraktekkan langkah- langkah diatas untuk beberapa blog baru dan memang hasilnya blog Saya ter- index Google dengan lebih cepat daripada harus membiarkannya secara natural. Pada dasarnya sih, ini hanya untuk diterapkan di awal saja. Lambat laun, progress indexing akan berjalan lebih baik seiring dengan peningkatkan kualitas blog yang Anda lakukan dan juga optimasi SEO yang Anda terapkan.

Sekian dulu postingan kali ini. Mudah- mudahan bermanfaat untuk teman- teman. Terimakasih.

Apa itu robots.txt? Bagaimana Cara Menggunakannya?

Apa itu robots.txt? Bagaimana Cara Menggunakannya?

Saya yakin istilah robots.txt ini pasti tidak asing lagi di telinga teman- teman, ya kan? Yes, kenyataannya, sewaktu Saya ngobrol sore bersama seorang rekan blogger Saya, tiba- tiba teman Saya itu bertanya tentang robots.txt. Kebetulan teman Saya ini memang baru belajar blogging, dan dia penasaran banget apa itu robots.txt. Dia memang sering dengar istilah ini, tapi masih belum ngeh pengertian, fungsi dan cara menggunakannya. Kalau ada teman- teman yang mengalami hal serupa, pas banget ya artikel ini untuk teman- teman :).

Pengertian robots.txt

Sebelum kita mengenal fungsi dan menerapkannya di website kita, tentu kita wajib tahu dulu apa itu robots.txt. Robots.txt adalah sebuah file teks sederhana yang berfungsi sebagai filter atau kontrol terhadap cara mesin pencari bekerja menjelajah di website kita. Secara keseluruhan, website kita memiliki banyak file, dan dengan robots.txt ini maka kita bisa memerintahkan robot mesin pencari untuk menentukan mana yang boleh diindeks dan mana yang tidak boleh di-indeks.

Pada dasarnya, sebuah robot search engine dirancang untuk mengindeks informasi dari sebuah website sebanyak yang mereka bisa. Dengan membuat perintah teks ini, maka website kita akan aman dari file- file yang seharusnya tidak boleh diindeks oleh robots.txt. Jadi bisa dibilang fungsi robots.txt ini adalah membatasi kebebasan menjelajah robot crawler dan juga melindungi file tertentu website kita yang memang tidak boleh diakses oleh robot penjelajah.

Mengapa penting menggunakan robots.txt?
Ada beberapa alasan, tapi yang paling menonjol, ada dua alasan penting mengapa kita wajib menggunakan file robots.txt ini. Yang pertama ialah melindungi website kita agar tidak rentan dan tidak mudah di hack. Jika kita membuka semua data terhadap mesin pencari, hal ini memungkinkan orang iseng untuk mengakses data rahasia tersebut dan hal tersebut sama saja dengan mengambil resiko besar tanpa kita sadari.

Alasan yang kedua, dengan mengijinkan mesin pencari untuk mengakses situs kita tanpa batasan, maka hal ini sama saja dengan jumlah bandwidth yang besar. Sebagai efeknya, situs kita dapat menjadi lebih lambat dan menurut performanya.

Sekilas robots.txt ini memang sebuah file kecil. Tapi,dibalik dua alasan yang kita menggunakan file ini, maka sesungguhnya robots.txt memiliki manfaat yang sangat besar untuk keamanan website dan juga SEO. Bayangkan jika kita tidak memberikan arahan dan larangan terhadap robot crawler, maka robot tersebut dapat mengakses folder file kita sesuka hati dan hal itu tentu berbahaya untuk website kita.

Tag/ Skenario robots.txt
Robots.txt bekerja sesuai dengan perintah yang kita berikan. Beberapa sintaks command/ perintah yang kerap digunakan di robots.txt antara lain :
User-agent:*    : sintaks yang menunjukkan bahwa aturan ini dibuat untuk sebuat robots dari semua mesin pencari
Disallow:/config/         : sintaks untuk melarang robot dari semua mesin pencari untuk menelusuri folder ‘config’
Disallow:/admin/         : sintaks yang melarang robot dari semua mesin pencari untuk menelusuri folder admin
Allow:/                         : sintaks kebalikan dari ‘disallow’, yang artinya mengijinkan robot dari semua mesin pencari untuk menelusuri folder tersebut
Di dalam robots.txt Anda, Anda dapat membuat peraturan ‘Disallow’ dan ‘Allow’ sesuai dengan kebutuhan Anda. Jadi tentu saja nanti aka nada contoh file robots.txt di artikel ini, dan Anda dapat mengeditnya sesuai dengan perintah yang Anda inginkan untuk mesin pencari.

Membuat File robots.txt yang SEO Friendly

Untuk dapat membuat file robot.txt, Anda wajib memiliki akses ke root domain. Untuk dapat mengakses root domain, Anda dapat login ke akun cPanel hosting Anda, lalu masuk ke ‘File Manager’ dan pilih root domain untuk website Anda. Setelah masuk ke public_html root domain Anda, langkah selanjutnya adalah pilih ‘New File’ atau ‘File Baru’dan beri nama ‘robots.txt’ seperti gambar di bawah ini :

Lihat Gambar :
robots.txt, file manager

Setelah Anda membuat nama file tersebut, lalu pilih ‘Edit’ atau ‘Sunting’ diantara deretan menu di atasnya atau dengan klik kanan. Untuk opsi editing, pilih utf-8 untuk pengkode-an karakter. Setelah itu, berikut ini adalah salah satu contoh file robots.txt dengan komposisi yang cukup SEO Friendly. Anda tentu dapat mengeditnya untuk menambah dan mengurangi sintaks command sesuai dengan keinginan Anda :

sitemap: https://www.pandagila.com/sitemap_index.xml
User-agent: *
# disallow all files in these directories
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /cgi-bin/
Disallow: /wp-content/
Disallow: /archives/
Disallow: /*?*
Disallow: *?replytocom
Disallow: /author
Disallow: /comments/feed/
Disallow: */trackback/
Disallow: /wp-*
Disallow: /*?*
User-agent:Mediapartners-Google*
Allow:/
User-agent:Googlebot-Image
Allow:/wp-content/uploads/
User-agent:Adsbot-Google
Allow:/
User-agent:Googlebot-Mobile
Allow:/

 

Untuk sitemap, silahkan ganti dengan alamat sitemap Anda. Setelah selesai, pilih ‘Save’ atau ‘Simpan’. Done, kini Anda telah memiliki sebuah file robot.txt yang SEO Friendly untuk website Anda.
Setelah Anda memiliki file ini, maka Anda dapat tenang karena Google-Bot akan menjelajah file- file situs web Anda secara terkendali. Sekian artikel kali ini, mudah- mudahan bermanfaat untuk teman- teman blogger yang sedang bingung dengan robot.txt ini. Terimakasih sudah membaca.