Langkah langkah mencari informasi secara spesifik di google?

tirto.id - Semenjak fitur search engine ditemukan, proses pencarian informasi dapat dilakukan dengan mudah melalui internet. Pengguna tinggal memasukkan kata kunci atau frasa tertentu, lalu segera tersaji beragam rekomendasi tautan yang memuat informasi sesuai kata kunci tersebut. Informasi yang bisa dicari melalui search engine beragam, mulai dari data tertentu di situs, gambar, artikel, sampai konten multimedia.

Search engine adalah mesin pelacak atau penelusur di dunia maya. Beberapa situs yang memiliki fasilitas ini antara lain Google, Yahoo, Bing, Baidu, Yandex, dan sebagainya. Memanfaatkan search engine untuk mencari informasi tertentu membuat pekerjaan bisa berjalan efektif dan efisien.

Mengutip laman SMK Piri 1 Yogyakarta, search engine mempunyai lima komponen utama yaitu:

1. Query interface. Komponen ini berupa kotak kosong di situs yang dipakai untuk menuliskan kata kunci dari informasi yang hendak dicari. Query adalah cara situs search engine mengekspresikan kata kunci yang dicari. Setiap situs tidak sama dalam melakukannya.

Contoh menuliskan query yaitu: "kesehatan" "ibu" "anak". Query tersebut untuk menelusuri data atau informasi terkait kesehatan ibu dan anak.

2. Query engine. Ini adalah program yang bertugas menerjemahkan kemauan pengguna agar dapat dipahami mesin komputer.

3. Database. Ini adalah kumpulan dokumen atau arsip dari semua situs yang ada di internet. Semakin luas skala internet yang ditangani, maka memerlukan kapasitas penyimpanan besar pula.

4. Spider. Spider pada search engine bertugas mendata setiap situs yang ada di internet secara berkala dan kontinu. Di samping mengambil data alamat situs, spider juga memungut kata-kata kunci pada arsip atau dokumen yang ditemukan di internet.

Oleh sebab itu, semakin mudah kata kunci suatu situs ditemukan oleh spider, maka informasi dari situs tersebut lebih mudah dicari melalui search engine oleh pengguna. Di sinilah terjadi persaingan di antara situs-situs agar bisa menempati posisi awal dalam pencarian.

5. Indexer. Indexer adalah program untuk mempercepat pencarian seperti halnya prinsip indeks di kamus atau buku. Teknik melakukan indeks yang diterapkan setiap situs, memengaruhi kecepatan pencarian data atau informasi.

Cara kerja search engine

Cara kerja search engine mengumpulkan data yaitu dengan menyimpan informasi berbagai halaman web yang diambil dari belantara website [www]. Halaman-halaman tersebut diambil menggunakan web crawler yang otomatis mengikuti setiap pranala yang dikenalinya.

Isi pada setiap halaman dianalisis untuk menetapkan indeksnya. Contohnya mengambil kata-kata pada judul, subjudul, atau field khusus yang dinamakan meta tag. Data halaman web selanjutnya disimpan pada database indeks yang dipakai untuk pencarian selanjutnya.

Cara menggunakan search engine

Search engine dapat digunakan dengan mudah. Pengguna tinggal menetapkan kata kunci yang akan dicari informasi. Sebagai contoh, cara menggunakan search engine Google sebagai berikut:

1. Buka situs //www.google.com;

2. Masukkan kata kunci atau frasa di kotak query;

3. Klik tombol "Google Search" dan daftar link berbagai informasi segera tertampil untuk dipilih sesuai kebutuhan;

4. Selesai.

Proses pencarian informasi dengan search engine terasa sangat cepat. Namun, di balik semua itu, terjadi proses kerja yang tidak sederhana.

Search engine menjalankan fungsinya secara bersamaan dengan program peramban [browser]. Ketika mengetikkan kata kunci dan menekan tombol enter, maka search engine segera mencari informasi yang dibutuhkan pada database.

Begitu menemukan beragam informasi yang sesuai, lalu semua informasi dikirim ke peramban dan ditampilkan dalam format yang mudah dipahami pengguna.

Baca juga:

  • Cara dan Manfaat Melakukan Defrag pada Komputer
  • Cara Mengatasi Masalah Printer pada Komputer Windows
  • Mengenal Perbedaan RAM dan ROM di Komputer: Cara Kerja & Fungsi

Baca juga artikel terkait SEARCH ENGINE atau tulisan menarik lainnya Ilham Choirul Anwar
[tirto.id - ica/ale]

Penulis: Ilham Choirul Anwar Editor: Alexander Haryanto Kontributor: Ilham Choirul Anwar

Subscribe for updates Unsubscribe from updates

Google Penelusuran adalah mesin telusur yang sepenuhnya otomatis, yang menggunakan software bernama web crawler untuk menjelajahi web secara rutin guna menemukan halaman yang akan ditambahkan ke indeks. Faktanya, sebagian besar halaman yang tercantum dalam hasil penelusuran kami tidak dikirimkan secara manual untuk dicantumkan, tetapi ditemukan dan ditambahkan secara otomatis saat web crawler mengeksplor web tersebut. Dokumen ini menjelaskan tahap cara kerja Penelusuran dalam konteks situs Anda. Memiliki pengetahuan dasar ini dapat membantu Anda memperbaiki masalah crawling, membuat halaman Anda diindeks, serta mempelajari cara mengoptimalkan tampilan situs Anda di Google Penelusuran.

Mencari informasi yang tidak terlalu teknis? Lihat situs kami terkait Cara Kerja Penelusuran, yang menjelaskan cara kerja Penelusuran dari perspektif penelusur.

Beberapa catatan sebelum memulai

Sebelum membahas detail cara kerja Penelusuran, penting untuk diperhatikan bahwa Google tidak menerima pembayaran untuk meng-crawl situs tertentu lebih sering, atau memberinya peringkat lebih tinggi. Jika Anda mendapatkan informasi sebaliknya, artinya informasi tersebut tidak benar.

Google tidak menjamin bahwa halaman Anda akan di-crawl, diindeks, atau ditayangkan, meskipun halaman tersebut mengikuti kebijakan dan panduan Google untuk pemilik situs.

Memperkenalkan tiga tahap Google Penelusuran

Google Penelusuran bekerja dalam tiga tahap dan tidak semua halaman berhasil melewati setiap tahap:

  1. Crawling: Google mendownload teks, gambar, dan video dari halaman yang ditemukan di internet dengan program otomatis yang disebut crawler.
  2. Pengindeksan: Google menganalisis file video, gambar, dan teks di halaman, serta menyimpan informasi tersebut di indeks Google, yang merupakan database berukuran besar.
  3. Penayangan hasil penelusuran: Saat pengguna melakukan penelusuran di Google, Google akan menampilkan informasi yang relevan dengan kueri pengguna.

Crawling

Tahap pertama adalah mencari tahu halaman apa yang ada di web. Tidak ada registry pusat untuk semua halaman web, sehingga Google harus terus-menerus mencari halaman baru dan halaman yang diperbarui, serta menambahkan halaman tersebut ke daftar halaman yang dikenal. Proses ini disebut "Penemuan URL". Beberapa halaman sudah dikenal karena telah dikunjungi Google. Halaman lain akan ditemukan saat Google mengikuti link dari halaman yang dikenal ke halaman baru: misalnya, halaman hub, seperti halaman kategori, menautkan ke postingan blog baru. Selain itu, halaman lain akan ditemukan saat Anda mengirimkan daftar halaman [peta situs] untuk di-crawl oleh Google.

Setelah menemukan URL halaman, Google mungkin mengunjungi [atau "meng-crawl"] halaman untuk mencari tahu apa yang ada di halaman tersebut. Kami menggunakan banyak sekali komputer untuk meng-crawl miliaran halaman di web. Program yang melakukan pengambilan ini disebut Googlebot [juga dikenal sebagai robot, bot, atau spider]. Googlebot menggunakan proses algoritme untuk menentukan situs mana yang akan di-crawl, seberapa sering, dan berapa banyak halaman yang diambil dari setiap situs. Crawler Google juga diprogram sedemikian rupa sehingga crawler tersebut mencoba untuk tidak meng-crawl situs terlalu cepat agar tidak membebaninya. Mekanisme ini didasarkan pada respons situs [misalnya, error HTTP 500 berarti "perlambat"] dan setelan di Search Console.

Namun, Googlebot tidak meng-crawl semua halaman yang ditemukannya. Beberapa halaman mungkin tidak diizinkan untuk di-crawl oleh pemilik situs, halaman lain mungkin tidak dapat diakses tanpa login ke situs, dan halaman lain mungkin merupakan duplikat di halaman yang telah di-crawl sebelumnya. Misalnya, banyak situs yang dapat diakses melalui versi nama domain www [www.example.com] dan non-www [example.com], meskipun konten tersebut identik di kedua versi ini.

Selama crawling, Google merender halaman dan menjalankan semua JavaScript yang ditemukannya menggunakan Chrome versi terbaru, mirip dengan cara browser merender halaman yang Anda kunjungi. Rendering itu penting karena situs sering kali mengandalkan JavaScript untuk menyajikan konten ke halaman, dan tanpa rendering, Google mungkin tidak akan melihat konten tersebut.

Crawling bergantung pada apakah crawler Google dapat mengakses situs. Beberapa masalah umum Googlebot saat mengakses situs meliputi:

Pengindeksan

Setelah halaman di-crawl, Google akan mencoba memahami apa yang ada di halaman tersebut. Tahap ini disebut pengindeksan, yang mencakup pemrosesan serta analisis konten tekstual serta tag & atribut konten utama, seperti elemen <title> dan atribut alt, gambar, video, dan lainnya.

Selama proses pengindeksan, Google menentukan apakah suatu halaman merupakan duplikat halaman lain di internet atau kanonis. Kanonis adalah halaman yang dapat ditampilkan di hasil penelusuran. Untuk memilih kanonis, pertama kami mengelompokkan halaman yang kami temukan di internet yang memiliki konten serupa, lalu kami memilih halaman yang paling mewakili grup. Halaman lain dalam grup adalah versi alternatif yang dapat ditayangkan dalam konteks yang berbeda, seperti apakah pengguna melakukan penelusuran dari perangkat seluler atau mencari halaman yang sangat spesifik dari cluster tersebut.

Google juga mengumpulkan sinyal tentang halaman kanonis dan kontennya, yang dapat digunakan di tahap berikutnya, yaitu menayangkan halaman di hasil penelusuran. Beberapa sinyal tersebut menyertakan bahasa halaman, negara asal konten, kegunaan halaman, dan sebagainya.

Informasi yang dikumpulkan tentang halaman kanonis dan cluster-nya dapat disimpan di indeks Google, yaitu database berukuran besar yang dihosting di ribuan komputer. Pengindeksan tidak dijamin; tidak setiap halaman yang diproses oleh Google akan diindeks.

Pengindeksan juga bergantung pada konten halaman dan metadatanya. Beberapa masalah umum pengindeksan dapat mencakup:

Penayangan hasil penelusuran

Google tidak menerima pembayaran untuk memberi peringkat halaman lebih tinggi, dan pemberian peringkat dilakukan secara terprogram.

Saat pengguna memasukkan kueri, mesin kami menelusuri indeks untuk mencari halaman yang cocok dan menampilkan hasil yang kami yakini berkualitas tinggi dan paling relevan bagi pengguna. Relevansi ditentukan oleh ratusan faktor, yang dapat mencakup informasi seperti lokasi, bahasa, dan perangkat pengguna [desktop atau ponsel]. Misalnya, hasil penelusuran "bengkel reparasi sepeda" bagi pengguna di Bandung akan berbeda dengan hasil penelusuran bagi pengguna di Bangkok.

Search Console mungkin memberi tahu Anda bahwa halaman diindeks, tetapi Anda tidak melihatnya di hasil penelusuran. Hal ini dapat terjadi karena:

Meskipun panduan ini menjelaskan cara kerja Penelusuran, kami selalu berupaya meningkatkan kualitas algoritme kami. Anda dapat memantau perubahan ini dengan mengikuti blog Pusat Google Penelusuran.

Video yang berhubungan