Perlukah Submit Manual di Google Search Console? - Ninura
Lompat ke konten Lompat ke sidebar Lompat ke footer

Widget Atas Posting

Perlukah Submit Manual di Google Search Console?

Perlukah Submit Manual di Google Search Console? - Sampai tanggal tulisan ini dibuat (21 Oktober 2020), masih banyak Blogger yang kebingungan karena mereka tidak bisa melakukan request indexing di Google Search Console dikarenakan Google sedang melakukan update atau maintenance atas fitur Search Console mereka tersebut.

Namun, yang sedikit menjadi pertanyaan buat saya pribadi adalah, memang perlu kita selalu melakukan Request Indexing secara manual setiap kali kita mempublikasi konten baru? Mari kita coba bahas perihal ini bersama-sama.

Apa itu Google Search Console?

Mari kita mulai dengan pertanyaan sederhana, apa itu Google Search Console terlebih dahulu. Saya akan mengutip penjelasan dari pihak Google langsung untuk menjawab pertanyaan tersebut.

Menurut Tim Google,
Search Console tools and reports help you measure your site's Search traffic and performance, fix issues, and make your site shine in Google Search results.

Jadi menurut Tim Google sendiri Google Search Console itu adalah alat untuk mendapatkan laporan tentang performa web atau blog kita di hasil pencarian Google. Selain itu, Tim Google juga menjelaskan fungsi dari Google Search Console itu sendiri adalah untuk:

  1. Mengetahui trafik situs/ blog kamu dari Google Search
  2. Performa situs kamu
  3. Memperbaiki masalah yang ada di web/ blog kamu yang berhubungan dengan hasil pencarian.
  4. MEMBUAT SITUSMU KEREN DI HASIL PENCARIAN GOOGLE
Sampai sini kita paham bahwa Google Search Console tidak diperuntukkan agar Google mengindeks web/ blog kita lebih cepat.

Jadi, kalau ada master SEO atau siapapun yang mewajibkan untuk selalu melakukan Request Indexing setiap kali membuat konten baru, ITU SALAH BESAR.

Apakah Request Indexing Mempercepat Indeks Google?

Untuk menjawab pertanyaan tersebut saya katakan, MUNGKIN.

Kenapa?

Karena proses indexing kurang lebih adalah seperti ini:
  1. GoogleBot mengunjungi halaman situs/ blog.
  2. GoogleBot memproses data-data yang ada di halaman tersebut.
  3. GoogleBot memutuskan layak atau tidaknya data tersebut untuk disimpan di database Google.
  4. Jika layak, GoogleBot menyimpan data tersebut di database untuk kemudian ditayangkan kepada pengguna Google.
Di tahap ke empat itulah yang dikenal dengan nama indexing.

Saya katakan mungkin karena fitur Request Indexing memaksa GoogleBot untuk sesegera mungkin meng-crawl halaman post baru kita yang mungkin kalau tidak dimintapun GoogleBot akan mengunjungi juga sebenernya.

GoogleBot sebenarnya akan mengunjungi situs kita jika kita memberitahu (ping) atau memberikan alamat peta situs (sitemap) blog/ web kita ke Google.

Cuma, GoogleBot itu mencoba untuk memberi jeda waktu pada kita, blogger atau content creator, untuk mencari ide dan mulai menuliskan ide-ide lainnya dengan hanya mengunjunginya beberapa kali sehari. Umumnya sih, sepengalaman saya, sehari-sekali.

Tahu darimana? Perhatikan gambar berikut ini.
Perhatikan jumlah Discovered Urls-nya.

Sampai saat saya mengambil screenshot tersebut, saya sudah mempublikasi 3 artikel. Namun yang ditemukan oleh Google baru 2.

Itu terjadi karena untuk feed ATOM ataupun RSS, akan secara otomatis ter-update ketika kita mempublikasi konten baru, tapi untuk Sitemap, perlu beberapa waktu dulu untuk bisa ditemukan.

Kenapa tidak ditemukan? Karena GoogleBot tidak selalu diam di sitemap web atau blog kamu, nungguin sitemap kamu update, sambil ngerokok dan ngopi.

Nggak!

GoogleBot terus berselancar ke hampir 2 miliar laman situs untuk terus mengindeks konten-konten terbaru yang muncul.

Oleh karena itulah, perlu waktu untuk GoogleBot kembali mengunjungi peta situs web atau blog kita. Dan dari pengalaman saya, biasanya GoogleBot akan kembali mengunjungi web/ blog kita melalui peta situs kita setelah 24 jam.

Untuk beberapa kasus, GoogleBot menandai situs-situs yang intensitas updatenya sering untuk dikunjungi beberapa kali. Beberapa contohnya adalah situs berita, portal informasi, web pemerintah, ensiklopedia dan situs referensi lain yang sekiranya membagikan informasi bermanfaat yang dibutuhkan secara segera oleh orang lain.

Untuk situs-situs seperti itu, GoogleBot biasanya mengupdate lebih cepat dan mengujunginya lebih sering. Itupun hanya situs-situs kredibel saja. Bukan semua portal berita jadi prioritas!

Jadi, Perlu Nggak Request Indexing Itu?

Kalau ditanya perlu atau nggak, itu kembali ke masing-masing pribadi deh, ya. Intinya kita sama-sama tahu dulu konsep dari Request Indexing ini apa.

Kalau sekiranya kamu mau konten kamu segera muncul di hasil pencarian Google, ya silahkan luangkan waktu untuk melakukan request indexing.

Kalau saya sendiri sih lebih milih setelah saya update konten terbaru, saya share konten tersebut ke sosial media, karena sasaran dari konten yang coba saya buat adalah untuk orang dulu, baru buat search engine.

Toh, Neil Patel, seorang Expert SEO, juga bilang kalau sebuah konten banyak disukai oleh orang, tentu akan disukai oleh mesin pencari. Atau dalam bahasa lainnya, kalau konten yang baru kita buat banyak dilihat oleh orang, maka mesin pencari juga akan memperhatikan.

Gitu.

Yang saya lakukan di Google Search Console hanyalah submit sitemap aja. Dan ternyata tetap berhasil, kok. Meskipun perlu nunggu 1x24 jam dulu untuk benar-benar terindeks secara baik oleh Google.

Coba perhatikan gambar di atas.

Dengan anggapan saya update 1 konten setiap hari, Google tetep secara teratur mengindeks konten yang saya buat, kok.

Malah, Google secara otomatis memberikan rich snippet berbeda ke salah satu konten saya. Karena kita chill.

Nggak rusuh dan bikin GoogleBot bete.

GoogleBot juga dengan senang hati kok mau menelusuri web dan konten-konten kita.

Penutup

Karena saya baru belajar tentang SEO, jadi saya banyak mendengar dan membaca konten-konten para sesepuh/ suhu/ master SEO yang lain. Salah satunya adalah Neil Patel.

Neil Patel pernah bilang kalau dia memanfaatkan fitur Request Indexing di Google Search Console ketika dia melakukan update pada konten-konten lama yang sudah terindeks.

Saya tegaskan ya, konten lama yang sudah terindeks.

Biar apa? Biar GoogleBot mengupdate juga tampilan dan hasil pencarian dari konten tersebut.

Tapi Neil nggak sibukin diri sendiri buat repot-repot submit manual.

Kalau memang Request Indexing itu berpengaruh pada cepat-tidaknya indexing, terus, portal berita sekelas Tribun atau Kompas gimana, dong? Mereka kan update bisa sampai 30-50 artikel per harinya. Belum kan limit dari Request Indexing Google Search Console sedikit, sekitar 10-15 submission aja per hari.

Tapi untuk keyword-keyword berita terbaru, artikel fresh mereka tetap bisa muncul kok.

Jadi, pilihan ada di tangan kamu. Kalau kamu merasa konten kamu berbobot, punya nilai untuk orang, nggak usah khawatir. Google pun bisa menilai, kok. Mana tulisan yang dibuat untuk benda (entah itu AdSense atau Hasil Pencarian semata) atau orang.

Itu aja yang mau saya sampaikan soal perlu atau tidaknya melakukan submit manual atau request indexing manual di Google Search Console. Maaf kalau pembahasannya ngelantur dan melebar kemana-mana. Kalau ada yang kurang jelas silahkan ditanyakan saja melalui kolom komentar di bawah.

Jika berkenan, baca juga artikel saya yang berjudul Daftar Backlink Berkualitas Gratis Terbaru untuk SEO. Semoga bermanfaat, dan sampai jumpa di konten lain.

NOTE

Informasi yang terdapat pada artikel di atas bersifat tidak tetap dan bisa saja tidak lagi valid sewaktu-waktu. Jika ada informasi baik teks, gambar ataupun media lain yang tidak sesuai (beda tampilan misalnya), silahkan beritahu melalui kolom komentar agar artikel di atas dapat di-update. Terima kasih.

Nisfa Nurfadilah Rachmaniar
Nisfa Nurfadilah Rachmaniar Halo, saya Nisfa. Saya adalah pengelola dari Ninura, sebuah online shop yang sekaligus media informasi dan hiburan melalui beberapa anak situsnya. Salam kenal, dan semoga betah di Ninura.

Berlangganan via Email