Robots.txt: Praktik Terbaik untuk SEO

Diterbitkan: 2022-04-28

Ketika datang untuk memaksimalkan lalu lintas situs web online, kita semua ingin melakukannya dengan memeriksa peringkat pencarian kami dan bagaimana hal itu dapat ditingkatkan. Tentu saja, nama gimnya adalah optimisasi mesin pencari, dan aturan gimnya, ya, tidak selalu mudah untuk diperiksa.

Ada banyak hal sederhana, konten dan kata kunci-bijaksana, yang dapat dilakukan untuk memberikan keuntungan situs tertentu dan keunggulan kompetitif. Tapi bagaimana dengan dasar dari itu semua? Itu dapat ditemukan di file robots.txt situs web Anda.

Mesin pencari memiliki perayap web yang pada dasarnya membuka situs web, melihat konten apa yang tersedia, dan mengaturnya untuk memberikan bentuk informasi terbaik yang tersedia kepada pencari. Untuk merayapi dan memproses konten dari situs dengan tepat, robot mesin pencari membutuhkan instruksi berupa halaman robots.txt dari situs web Anda.

Membuat file robots.txt dan menggunakannya secara efektif untuk mengoptimalkan halaman web untuk tujuan mesin pencari bisa menjadi proses yang membingungkan. Ada beberapa hal spesifik yang perlu diingat yang dapat membuat atau menghancurkan seberapa mudah diaksesnya sebuah situs web oleh robot mesin telusur.

Dari mengikuti format dan sintaks yang sesuai hingga menempatkan file robots.txt di lokasi situs yang benar, penting untuk mengikuti beberapa panduan dasar dan praktik terbaik Robots txt untuk mengelola lalu lintas ke situs web Anda.

File Robots.txt: Apa Itu dan Mengapa Anda Menginginkannya

Mari selami lebih dalam apa itu file robots.txt dan cara kerjanya dalam lingkup SEO. Inilah yang perlu Anda ketahui tentang praktik terbaik Robots txt.

File robots.txt adalah file teks biasa yang dibuat dalam standar pengecualian robot atau RES. RES adalah protokol untuk bahasa yang dapat dibaca oleh perayap web. Karena ada banyak perayap web dari berbagai mesin telusur, penting untuk menghindari salah tafsir tentang apa yang harus diakses. RES memungkinkan Anda untuk menentukan perayap web mana yang akan diblokir dari apa, sementara juga cukup fleksibel dalam memungkinkan Anda mengamankan seluruh situs atau hanya sebagian jika diperlukan.

Sebagian besar perayap web akan memindai file robots.txt untuk menentukan konten apa yang dapat mereka minta dari situs web Anda. Ingatlah bahwa perayap web dengan niat jahat dapat memilih untuk mengabaikan instruksi atau bahkan menggunakannya sebagai panduan untuk menemukan kelemahan situs atau informasi kontak untuk spamming. Jika tidak ada file robots.txt yang dapat ditemukan, maka perayap akan menganggap situs terbuka untuk permintaan apa pun pada URL atau file media apa pun.

File robot.txt situs juga selalu tersedia untuk dilihat siapa saja. Ini berarti tidak boleh digunakan untuk menyembunyikan informasi pribadi atau informasi apa pun yang dapat dikompromikan. Lihat metode alternatif untuk menyembunyikan seluruh halaman informasi dari hasil pencarian, seperti arahan noindex.

Pertimbangkan apa yang akan terjadi jika Anda tidak memiliki file robots.txt yang dilampirkan ke situs Anda. Anda bisa mendapatkan beberapa permintaan dari perayap pihak ketiga yang memperlambat situs atau server Anda. Membebani server atau menyebabkan kesalahan server hanya akan merusak aksesibilitas Anda ke audiens Anda.

Meskipun beberapa perayap pihak ketiga masih memiliki opsi untuk mengabaikan pemblokiran, sebaiknya buat file robots.txt untuk menghalangi sebagian besar klik yang tidak diinginkan dan mencegah mereka menjelajahi konten Anda.

Membuat File Robots.txt

Untuk mulai membuat file robots.txt, Anda dapat menggunakan editor teks sederhana (bukan pengolah kata) untuk membuat file dan mengunggahnya ke direktori root utama untuk situs web Anda. Pastikan itu terletak di akar nama situs web Anda. Semua perayap web mencari "/ robots.txt" tepat setelah URL dasar Anda.

Seperangkat aturan adalah apa yang membentuk file robot.txt. Parameter pertama yang disertakan dalam setiap aturan adalah agen pengguna, yang merupakan nama perayap web yang Anda instruksikan.

Contohnya adalah Googlebot, tetapi ada begitu banyak perayap web sehingga penting untuk menentukan siapa yang ingin Anda blokir atau izinkan dari area tertentu. Tanda bintang (*) sebagai pengganti nama agen pengguna berarti bahwa SEMUA bot harus mengikuti aturan, jika mereka memilih untuk mengikutinya.

Parameter kedua adalah salah satu kata kunci instruksi: allow atau disallow. Ini harus diikuti dengan nama folder atau nama jalur file yang ingin Anda izinkan atau larang akses perayapnya.

Melakukan hal ini memungkinkan Anda menentukan bagian mana dari situs web Anda yang ingin Anda pertahankan agar tidak diindeks untuk hasil pencarian dan mencegah Anda mendapatkan hit di seluruh rangkaian Anda. Mengklarifikasi ini sangat membantu jika tidak setiap file akan membantu Anda dalam pencarian SEO Anda.

Bagian penting lainnya yang umum ke file robots.txt adalah menambahkan tautan ke peta situs XML Anda. Melampirkan ini agar perayap web dapat dengan mudah mengevaluasi konten Anda dan mengindeks konten apa pun yang Anda izinkan sehingga informasi, video, dan gambar yang lebih berharga dapat muncul.

Ini hanyalah dasar-dasar menyiapkan file robots.txt yang dapat diterapkan untuk situs Anda. Berdasarkan ini, Anda harus dapat membuat aturan yang dapat dinavigasi oleh perayap web untuk menghasilkan hasil pencarian yang signifikan yang meningkatkan lalu lintas situs web Anda. Ini juga akan membutuhkan upaya untuk menganalisis situs web Anda untuk memilih informasi atau media apa yang akan mendorong audiens untuk ingin melihat lebih banyak konten yang Anda tawarkan.

Praktik Terbaik untuk File Robots.txt

Ikhtisar file robots.txt ini diharapkan akan membantu Anda membuat file situs web Anda sendiri, dan Anda dapat mengikuti praktik terbaik di bawah ini untuk mengoptimalkan situs web Anda untuk perayap mesin telusur sepenuhnya. Kami mencakup memastikan URL Anda yang diblokir tidak dapat diakses melalui situs lain, menggunakan simbol untuk menyederhanakan saat ada pola, mengatur file Anda dengan tepat, dan menguji file robots.txt Anda untuk melihat apakah file tersebut melakukan apa yang Anda inginkan.

Menguji File Robots.txt Anda

Sangat penting untuk menguji file robots.txt Anda untuk memastikan Anda tidak memblokir seluruh bagian situs web Anda agar tidak muncul di hasil pencarian. Melakukan ini melalui alat pengujian dapat memberi tahu Anda jika URL tertentu diblokir untuk robot pencarian web tertentu.

Ini bisa sangat membantu jika Anda memiliki banyak aspek yang ingin Anda batasi. Anda tidak akan menginginkan peralihan sederhana dari kata 'izinkan' atau 'larang' untuk mengeluarkan halaman web, file media, atau file sumber daya Anda sepenuhnya dari permainan SEO.

Pencocokan Pola

Manfaatkan pencocokan pola dalam file robots.txt untuk memperhitungkan variasi dalam URL. Pencocokan pola dapat menyertakan tanda bintang, seperti yang disebutkan sebelumnya, untuk mewakili semua perayap. Ini dapat digunakan di baris agen pengguna untuk melarang halaman tertentu dari semua robot mesin pencari yang membaca file dan memilih untuk mematuhinya.

Simbol pencocokan pola lainnya adalah tanda dolar ($), yang dapat digunakan di akhir string tertentu untuk mencegah crawler mengakses URL apa pun yang diakhiri dengan ekstensi atau jenis file tersebut.

Penempatan, Sintaks, dan Format

Selain itu, berhati-hati dalam penempatan, sintaksis, dan format sangat penting untuk halaman robots.txt yang akan bekerja untuk Anda. Sekali lagi, file harus ditempatkan di root situs web versus di bawah URL subhalaman atau domain yang berbeda, karena setiap URL situs hanya dapat memiliki satu file robots.txt. Perayap web hanya akan melihat di penempatan root itu, jadi file yang sama yang ditempatkan di lokasi lain menjadi tidak relevan.

Arahan di dalam file robots.txt harus dikelompokkan menurut agen pengguna atau perayap yang ditangani. Grup-grup ini dipindai dari atas ke bawah, artinya perayap web akan mengikuti kumpulan aturan khusus pertama yang cocok dengannya. Ingatlah hal ini saat menentukan spesifikasi Anda dan mengidentifikasi perayap web mana yang Anda izinkan atau blokir.

Menghubungkan Luar

URL yang disertakan dalam file robots.txt terkadang masih dapat diindeks meskipun ada arahan untuk melarangnya dari perayap tertentu atau beberapa perayap. Bagaimana ini bisa terjadi? Saat halaman luar menyertakan tautan ke halaman yang mungkin ingin Anda blokir, perayap web masih dapat melihat informasi tersebut saat memindai dan mengindeks konten. Ini adalah contoh lain ketika menyelidiki opsi lebih lanjut untuk melindungi halaman web tertentu akan berguna.

Menggunakan file robots.txt untuk situs web Anda adalah keuntungan Anda ketika mengarahkan tautan situs apa yang ingin Anda dorong untuk promosi mesin telusur dan menjaga permintaan perayap mesin telusur yang berlebihan.

Ini adalah bagian dasar yang tidak ingin Anda lewatkan melalui celah persiapan SEO Anda, terutama dalam hal praktik terbaik Robots txt. Mengingat pedoman dan rekomendasi ini akan membantu Anda membuat halaman robots.txt yang tidak akan menghalangi kinerja situs web Anda di halaman hasil mesin telusur dan akan meningkatkan kecepatan dan aksesibilitas situs Anda.