"SEO" dialihkan ke sini. Untuk kegunaan lain, lihat SEO (disambiguasi).
pemasaran internet
Optimisasi Mesin Pencari
Pemasaran media sosial
Email Pemasaran
Pemasaran rujukan
Pemasaran konten
Mesin pencari Marketing
Bayar per klik
Biaya per tayangan
Analisis penelusuran
analitik web
Menampilkan iklan
Iklan kontekstual
Penargetan perilaku
Pemasaran afiliasi
Biaya per tindakan
Pembagian keuntungan
Iklan seluler
Optimisasi mesin pencari (SEO) adalah proses mempengaruhi visibilitas situs web atau halaman web dalam hasil pencarian mesin pencari "alami" atau tidak berbayar ("organik").[jargon] Secara umum, yang lebih awal ( atau peringkat yang lebih tinggi pada halaman hasil pencarian), dan semakin sering sebuah situs muncul dalam daftar hasil pencarian, semakin banyak pengunjung yang akan diterimanya dari pengguna mesin pencari. SEO dapat menargetkan berbagai jenis pencarian, termasuk pencarian gambar, pencarian lokal, pencarian video, pencarian akademis,[1] pencarian berita dan mesin pencari vertikal khusus industri.
Sebagai strategi pemasaran Internet, SEO mempertimbangkan cara kerja mesin telusur, apa yang dicari orang, istilah penelusuran atau kata kunci aktual yang diketikkan ke mesin telusur, dan mesin telusur mana yang disukai oleh audiens yang ditargetkan. Mengoptimalkan situs web mungkin melibatkan pengeditan kontennya, HTML, dan pengkodean terkait untuk meningkatkan relevansinya dengan kata kunci tertentu dan untuk menghilangkan hambatan terhadap aktivitas pengindeksan mesin pencari. Mempromosikan situs untuk meningkatkan jumlah backlink, atau tautan masuk, adalah taktik SEO lainnya.
Bentuk jamak dari singkatan SEO dapat merujuk pada "pengoptimal mesin pencari," mereka yang menyediakan layanan SEO.
Isi
1 Sejarah
2 Hubungan dengan mesin pencari
3 Metode
3.1 Mendapatkan diindeks
3.2 Mencegah perayapan
3.3 Meningkatkan keunggulan
4 Teknik topi putih versus topi hitam
5 SEO Copywriting
5.1 Detail teknis
5.2 Peran profesional
6 Sebagai strategi pemasaran
7 pasar internasional
8 Preseden hukum
9 Lihat juga
10 Catatan
11 Tautan eksternal
Sejarah
Webmaster dan penyedia konten mulai mengoptimalkan situs untuk mesin pencari pada pertengahan 1990-an, karena mesin pencari pertama membuat katalog Web awal. Awalnya, semua webmaster perlu lakukan adalah mengirimkan alamat halaman, atau URL, ke berbagai mesin yang akan mengirim "laba-laba" untuk "merangkak" halaman itu, mengekstrak tautan ke halaman lain darinya, dan mengembalikan informasi yang ditemukan di halaman yang akan diindeks.[2] Proses ini melibatkan spider mesin pencari yang mengunduh halaman dan menyimpannya di server mesin pencari itu sendiri, di mana program kedua, yang dikenal sebagai pengindeks, mengekstrak berbagai informasi tentang halaman, seperti kata-kata yang dikandungnya dan di mana letaknya, seperti serta bobot apa pun untuk kata-kata tertentu, dan semua tautan yang berisi halaman, yang kemudian ditempatkan ke dalam penjadwal untuk dirayapi di kemudian hari.
Pemilik situs mulai menyadari nilai memiliki situs mereka berperingkat tinggi dan terlihat di hasil mesin pencari, menciptakan peluang bagi praktisi SEO topi putih dan topi hitam. Menurut analis industri Danny Sullivan, frase "optimasi mesin pencari" mungkin mulai digunakan pada tahun 1997.[3] Penggunaan terdokumentasi pertama dari istilah Search Engine Optimization adalah John Audette dan perusahaannya Multimedia Marketing Group sebagaimana didokumentasikan oleh halaman web dari situs MMG dari Agustus 1997.[4]
Versi awal dari algoritma pencarian mengandalkan informasi yang disediakan webmaster seperti meta tag kata kunci, atau file indeks di mesin seperti ALIWEB. Tag meta memberikan panduan untuk konten setiap halaman. Namun, menggunakan data meta untuk mengindeks halaman ternyata kurang dapat diandalkan, karena pilihan kata kunci webmaster dalam tag meta berpotensi menjadi representasi yang tidak akurat dari konten situs yang sebenarnya. Data yang tidak akurat, tidak lengkap, dan tidak konsisten dalam meta tag dapat dan memang menyebabkan peringkat halaman untuk pencarian yang tidak relevan.[5][meragukan – diskusikan] Penyedia konten web juga memanipulasi sejumlah atribut dalam sumber HTML halaman dalam upaya untuk menentukan peringkat baik di mesin pencari.[6]
Dengan mengandalkan begitu banyak faktor seperti kepadatan kata kunci yang secara eksklusif berada dalam kendali webmaster, mesin pencari awal mengalami penyalahgunaan dan manipulasi peringkat. Untuk memberikan hasil yang lebih baik kepada penggunanya, mesin pencari harus beradaptasi untuk memastikan halaman hasil mereka menunjukkan hasil pencarian yang paling relevan, daripada halaman yang tidak terkait yang diisi dengan banyak kata kunci oleh webmaster yang tidak bermoral. Karena keberhasilan dan popularitas mesin telusur ditentukan oleh kemampuannya untuk menghasilkan hasil yang paling relevan dengan penelusuran apa pun, membiarkan hasil tersebut salah akan membuat pengguna mencari sumber penelusuran lain. Mesin pencari merespons dengan mengembangkan algoritme peringkat yang lebih kompleks, dengan mempertimbangkan faktor tambahan yang lebih sulit dimanipulasi oleh webmaster. Mahasiswa pascasarjana di Universitas Stanford, Larry Page dan Sergey Brin, mengembangkan "Backrub," sebuah mesin pencari yang mengandalkan algoritma matematika untuk menilai keunggulan halaman web. Jumlah yang dihitung oleh algoritma, PageRank, adalah fungsi dari kuantitas dan kekuatan tautan masuk.[7] PageRank memperkirakan kemungkinan bahwa halaman tertentu akan dijangkau oleh pengguna web yang menjelajahi web secara acak, dan mengikuti tautan dari satu halaman ke halaman lainnya. Akibatnya, ini berarti bahwa beberapa tautan lebih kuat daripada yang lain, karena halaman PageRank yang lebih tinggi lebih mungkin dijangkau oleh peselancar acak.
Page dan Brin mendirikan Google pada tahun 1998. Google menarik pengikut setia di antara semakin banyak pengguna Internet, yang menyukai desainnya yang sederhana.[8] Faktor di luar halaman (seperti PageRank dan analisis hyperlink) dipertimbangkan serta faktor di halaman (seperti frekuensi kata kunci, tag meta, judul, tautan, dan struktur situs) untuk memungkinkan Google menghindari jenis manipulasi yang terlihat di mesin pencari yang hanya mempertimbangkan faktor di halaman untuk peringkat mereka. Meskipun PageRank lebih sulit untuk dimainkan, webmaster telah mengembangkan alat dan skema pembuatan tautan untuk memengaruhi mesin telusur Inktomi, dan metode ini terbukti juga dapat diterapkan pada PageRank permainan. Banyak situs yang berfokus pada pertukaran, pembelian, dan penjualan tautan, seringkali dalam skala besar. Beberapa skema ini, atau peternakan tautan, melibatkan pembuatan ribuan situs dengan tujuan semata-mata untuk mengirim spam tautan.[9]
Pada tahun 2004, mesin pencari telah memasukkan berbagai faktor yang tidak diungkapkan dalam algoritme peringkat mereka untuk mengurangi dampak manipulasi tautan. Pada Juni 2007, Saul Hansell dari The New York Times menyatakan bahwa Google memberi peringkat situs menggunakan lebih dari 200 sinyal berbeda.[10] Mesin pencari terkemuka, Google, Bing, dan Yahoo, tidak mengungkapkan algoritma yang mereka gunakan untuk menentukan peringkat halaman. Beberapa praktisi SEO telah mempelajari pendekatan berbeda untuk pengoptimalan mesin telusur, dan telah membagikan pendapat pribadi mereka[11] Paten yang terkait dengan mesin telusur dapat memberikan informasi untuk lebih memahami mesin telusur.[12]
Pada tahun 2005, Google mulai mempersonalisasi hasil pencarian untuk setiap pengguna. Tergantung pada riwayat pencarian mereka sebelumnya
Metode
Bagian ini berisi instruksi, saran, atau konten petunjuk. Tujuan Wikipedia adalah untuk menyajikan fakta, bukan untuk melatih. Tolong bantu memperbaiki artikel ini baik dengan menulis ulang konten petunjuk atau dengan memindahkannya ke Wikiversity atau Wikibooks. (Oktober 2012)
Misalkan setiap lingkaran adalah situs web, dan panah adalah tautan dari satu situs web ke situs web lain, sehingga pengguna dapat mengklik tautan di dalam, katakanlah, situs web F untuk pergi ke situs web B, tetapi tidak sebaliknya. Mesin pencari mulai dengan mengasumsikan bahwa setiap situs web memiliki peluang yang sama untuk dipilih oleh pengguna. Selanjutnya, perayap memeriksa situs web mana yang menautkan ke situs web lain mana dan menebak bahwa situs web dengan lebih banyak tautan masuk berisi informasi berharga yang diinginkan pengguna.
Mesin pencari menggunakan algoritme matematika yang kompleks untuk menebak situs web mana yang dicari pengguna, sebagian didasarkan pada pemeriksaan bagaimana situs web saling terhubung. Karena situs web B adalah penerima banyak tautan masuk, B mendapat peringkat tinggi dalam pencarian web, dan akan muncul lebih awal dalam pencarian web. Selanjutnya, karena B populer, dan memiliki tautan keluar ke C, peringkat C juga tinggi.
Mendapatkan diindeks
Mesin pencari terkemuka, seperti Google, Bing dan Yahoo!, menggunakan crawler untuk menemukan halaman hasil pencarian algoritmik mereka. Halaman yang ditautkan dari halaman yang diindeks mesin pencari lainnya tidak perlu dikirimkan karena ditemukan secara otomatis. Beberapa mesin pencari, terutama Yahoo!, mengoperasikan layanan pengiriman berbayar yang menjamin perayapan baik dengan biaya yang ditetapkan atau biaya per klik.[30] Program semacam itu biasanya menjamin penyertaan dalam database, tetapi tidak menjamin peringkat tertentu dalam hasil pencarian.[31] Dua direktori utama, Direktori Yahoo dan Proyek Direktori Terbuka keduanya memerlukan pengiriman manual dan tinjauan editorial manusia.[32] Google menawarkan Alat Webmaster Google, di mana umpan XML Sitemap dapat dibuat dan dikirimkan secara gratis untuk memastikan bahwa semua halaman ditemukan, terutama halaman yang tidak dapat ditemukan dengan mengikuti tautan secara otomatis.[33]
Perayap mesin telusur mungkin melihat sejumlah faktor berbeda saat merayapi situs. Tidak setiap halaman diindeks oleh mesin pencari. Jarak halaman dari direktori akar situs juga dapat menjadi faktor apakah halaman dirayapi atau tidak.[34]
Mencegah perayapan
Artikel utama: Standar Pengecualian Robot
Untuk menghindari konten yang tidak diinginkan dalam indeks pencarian, webmaster dapat menginstruksikan spider untuk tidak merayapi file atau direktori tertentu melalui file robots.txt standar di direktori root domain. Selain itu, halaman dapat secara eksplisit dikecualikan dari database mesin pencari dengan menggunakan tag meta khusus untuk robots. Saat mesin pencari mengunjungi sebuah situs, robots.txt yang terletak di direktori root adalah file pertama yang dirayapi. File robots.txt kemudian diurai, dan akan menginstruksikan robot mengenai halaman mana yang tidak boleh dirayapi. Karena perayap mesin telusur dapat menyimpan salinan cache dari file ini, perayap tersebut terkadang merayapi laman yang tidak ingin dirayapi oleh webmaster. Laman yang biasanya dicegah agar tidak dirayapi mencakup laman khusus masuk seperti keranjang belanja dan konten khusus pengguna seperti hasil penelusuran dari penelusuran internal. Pada bulan Maret 2007, Google memperingatkan webmaster bahwa mereka harus mencegah pengindeksan hasil pencarian internal karena halaman tersebut dianggap sebagai spam pencarian.[35]
Meningkatkan keunggulan
Berbagai metode dapat meningkatkan keunggulan halaman web dalam hasil pencarian. Tautan silang antar halaman situs web yang sama untuk menyediakan lebih banyak tautan ke halaman paling penting dapat meningkatkan visibilitasnya.[36] Menulis konten yang menyertakan frase kata kunci yang sering dicari, sehingga relevan dengan berbagai macam permintaan pencarian akan cenderung meningkatkan lalu lintas.[36] Memperbarui konten agar mesin telusur sering merayapi kembali dapat memberikan bobot tambahan pada situs. Menambahkan kata kunci yang relevan ke data meta halaman web, termasuk tag judul dan deskripsi meta, akan cenderung meningkatkan relevansi daftar pencarian situs, sehingga meningkatkan lalu lintas. Normalisasi URL halaman web yang dapat diakses melalui beberapa url, menggunakan elemen tautan kanonik[37] atau melalui pengalihan 301 dapat membantu memastikan tautan ke berbagai versi url semuanya diperhitungkan dalam skor popularitas tautan halaman.
Teknik topi putih versus topi hitam
Teknik SEO dapat diklasifikasikan ke dalam dua kategori besar: teknik yang direkomendasikan oleh mesin pencari sebagai bagian dari desain yang baik, dan teknik yang tidak disetujui oleh mesin pencari. Mesin pencari berusaha meminimalkan efek yang terakhir, di antaranya spamdexing. Komentator industri telah mengklasifikasikan metode ini, dan para praktisi yang menggunakannya, baik sebagai white hat SEO, atau black hat SEO.[38] Topi putih cenderung memberikan hasil yang bertahan lama, sedangkan topi hitam mengantisipasi bahwa situs mereka pada akhirnya akan dilarang baik sementara atau permanen setelah mesin pencari menemukan apa yang mereka lakukan.[39]
Teknik SEO dianggap topi putih jika sesuai dengan pedoman mesin pencari dan tidak melibatkan penipuan. Sebagai pencarian
Pasar internasional
Teknik optimasi sangat disesuaikan dengan mesin pencari yang dominan di pasar sasaran. Pangsa pasar mesin pencari bervariasi dari pasar ke pasar, seperti halnya persaingan. Pada tahun 2003, Danny Sullivan menyatakan bahwa Google mewakili sekitar 75% dari semua pencarian.[50] Di pasar di luar Amerika Serikat, pangsa Google seringkali lebih besar, dan Google tetap menjadi mesin pencari yang dominan di seluruh dunia pada tahun 2007.[51] Pada tahun 2006, Google memiliki 85-90% pangsa pasar di Jerman. Meskipun ada ratusan perusahaan SEO di AS pada waktu itu, hanya ada sekitar lima di Jerman.[52] Pada Juni 2008, pangsa pasar Google di Inggris mendekati 90% menurut Hitwise. Pangsa pasar itu dicapai di sejumlah negara.
Pada 2009, hanya ada beberapa pasar besar di mana Google bukan mesin pencari terkemuka. Dalam kebanyakan kasus, ketika Google tidak memimpin di pasar tertentu, itu tertinggal dari pemain lokal. Pasar yang paling menonjol di mana hal ini terjadi adalah Cina, Jepang, Korea Selatan, Rusia dan Republik Ceko di mana masing-masing Baidu, Yahoo! Jepang, Naver, Yandex dan Seznam adalah pemimpin pasar.
Pengoptimalan pencarian yang berhasil untuk pasar internasional mungkin memerlukan terjemahan halaman web secara profesional, pendaftaran nama domain dengan domain tingkat atas di pasar sasaran, dan hosting web yang menyediakan alamat IP lokal. Jika tidak, elemen dasar pengoptimalan pencarian pada dasarnya sama, apa pun bahasanya.[52]
Preseden hukum
Pada 17 Oktober 2002, SearchKing mengajukan gugatan di Pengadilan Distrik Amerika Serikat, Distrik Barat Oklahoma, terhadap mesin pencari Google. Klaim SearchKing adalah bahwa taktik Google untuk mencegah spamdexing merupakan gangguan yang menyakitkan dengan hubungan kontraktual. Pada tanggal 27 Mei 2003, pengadilan mengabulkan mosi Google untuk menolak pengaduan tersebut karena SearchKing “gagal menyatakan klaim yang dapat memberikan keringanan.”[54][55]
Pada bulan Maret 2006, KinderStart mengajukan gugatan terhadap Google atas peringkat mesin pencari. Situs web Kinderstart telah dihapus dari indeks Google sebelum gugatan dan jumlah lalu lintas ke situs turun 70%. Pada tanggal 16 Maret 2007, Pengadilan Distrik Amerika Serikat untuk Distrik Utara California (Divisi San Jose) menolak keluhan KinderStart tanpa izin untuk mengubah, dan sebagian mengabulkan mosi Google untuk sanksi Aturan 11 terhadap pengacara KinderStart, yang mengharuskan dia untuk membayar sebagian biaya hukum Google pengeluaran.
