Sebagai pengguna internet, tentu kita semua mengharapkan kecepatan internet yang cepat dan bisa diandalkan. Tetapi apa yang diharapkan pengguna terhadap koneksi internet yang cepat kadang berbanding terbalik dengan realitas yang ada. Terlebih bagi kita di Indonesia. Kenyataannya adalah, kecepatan internet di Indonesia rata-rata berkisar 15 Mbps. Sangat jauh dari rata-rata dunia yang mencapai 54 Mbps.

Kanca Jejualan, tahukah Anda bahwa semakin besar bandwidth dalam jaringan, maka kecepatan jaringan yang ada menjadi semakin besar. Bandwidth dapat diibaratkan layaknya jalan raya. Sedangkan data seperti lalu lalang kendaraan yang biasanya.

Cepat atau lambatnya koneksi internet bergantung pada infrastruktur yang dipergunakan. Semakin canggih, semakin cepat pula kecepatan akses internet. Dalam pengiriman data, sangat lazim terjadi latency. Latency merupakan salah satu elemen penting selain bandwidth. Semakin kecil latency, maka akan semakin baik.

Lantas, apakah yang dimaksud dengan latency? Artikel ini akan menjabarkan pada Anda, Kanca Jejualan, tentang apa itu latency. Untuk lebih jelasnya, silakan simak artikel ini sampai selesai, ya.

Apa itu Latency?

apa itu latency

Banyak orang, mungkin termasuk Anda pernah mendengar istilah yang satu ini. Tetapi, apa sih yang dimaksud dengan latency? Latency adalah waktu yang dibutuhkan data dari tempatnya berasal hingga ke tempat tujuan. Latency diukur dalam satuan mili detik. Istilah awamnya, latency tak ada bedanya dengan delay atau penundaan.

Dalam hal latency jaringan, ini dapat ditentukan oleh waktu yang dibutuhkan untuk permintaan melakukan perjalanan dari pengirim ke penerima. Dan penerima akan memproses permintaan tersebtu. Dengan kata lain, waktu perjalanan dari browser ke server.

Mari ambil contoh ketika Anda, yang berada di Yogyakarta mengirimlan email dengan attachment di dalamnya. Entah itu dokumen atau foto. Dan Anda mengirim email tersebut ke rekan Anda yang berada di Osaka, Jepang. Ketika email dikirim, akan terjadi latency sepersekian mili detik sebelum email diterima.

Latency yang terjadi dalam hitungan sepersekian detik, bisa dibilang masih cukup wajar. Tetapi jika sudah masuk hitungan detik, maka sudah termasuk high latency. Harus ada beberapa tindakan untuk menyelesaikan permasalahan high latency. Dimulai dari mencari penyebab terjadinya latency.

Baca Juga : Analisa Strategi Penjualan Bisnis Online 

Penyebab Latency

Setidaknya, terdapat tujuh hal yang menjadi penyebab dari kemunculan latency. Masing-masing saling berkelindan dan bertaut. Berikut ini adalah 7 penyebab utama latency yang harus Anda ketahui:

  • Media transmisi

Penyebab terjadinya latency yang pertama adalah media transmisi. Setiap infrastruktur jaringn pasti memiliki sebuah keterbatasan, yang dapat mengakibatkan terjadinya latency. Misalnya saja pada jaringan kabel fiber optic. Meskipun memiliki kecepatan hingga 10.000 Mbps, sangat dimungkinkan terjadi latency, walaupun angkanya sangat kecil. Jadi, semakin jauh jarak pengiriman data Anda, maka semakin besar pula peluang latency yang terjadi.

  • Propagasi

Penyebab terjadinya latency yang kedua adalah propagasi. Propagasi adalah waktu yang diperlukan suatu paket untuk melakukan perjalanan, dari berangkat hingga sampai ke tujuan.

  • Router

apa itu latency

Setiap router membutuhkan waktu untuk melakukan analisis informasi header dari suatu paket yang diterima. Jadi, setiap melewati router baru, maka akan meningkatkan latency.

  • Storage Delays

Latency dapat terjadi ketika suatu paket data disimpan, kemudian saat diakses perlu melewati perangkat jaringan seperti switch atau bridge. Inilah yang disebut dengan storage delays.

  • Gangguan Frekuensi Radio

Hal lain yang dapat menyebabkan terjadinya latency adalah gangguan sinyal radio di sekitr lokasi pengguna. Untuk dapat mentransmisikan jaringan yang bagus, yang harus dilakukan adalah mencari daerah yang bersih dari gelombang radio.

  • Konfigurasi Jaringan dan Server

Semakin banyaknya Hop atau point of presence yang harus dilewati data untuk bisa sampai pada tujuan. Maka peluang latency akan semakin besar. Hindari membuat konfigurasi jaringan yang rumit, sehingga menghambat laju data.

  • Cuaca

Penyebab latency yang terakhir adalah masalah cuaca. Sebagai informasi, bahwa karakter sinyal untuk bisa berpindah dari satu lokasi menuju lokasi yang lainnya, saat kondisi cuaca sedang bagus, kecepatan data dapat merambat hingga 300 ribu kilometer per detik.

Lain lagi ketika cuaca mendung misalnya. Laju sinyal akan sedikit menurun karena menembus awan tebal dan hujan. Jadi, saat cuaca kurang bersahabat, umumnya tingkat latency akan semakin membesar.

Latency vs Bandwidth

Meskipun latency dan bandwidth memiliki kesan yang sama, keduanya memiliki makna yang berbeda. Lebih mudah untuk memvisualisasikan cara kerja setiap istilah pada cara kerja pipa air. Bandwidth menentukan sebarapa sempit atau lebar pipa. Semakin sempit, semakin sedikit data yang dapat didorong melaluinya dan sebaliknya. Sedangkan latency menentukan seberapa cepat konten di dalam pipa dapat ditransfer dari klien ke server dan sebaliknya.

Cara Menghitung Latency

Perlu diketahui, bahwa kabel fiber optic memiliki kecepatan internet setara dengan kecepatan cahaya 299.792.458 meter/detik. Dari kecepatan tersebut latency sebesar 3,33 microsecond. Semakin jauh lokasi pengiriman paket data, maka semakin besar pula angka latencynya. Pada dasarnya, latency diukur menggunakan dua metode, yaitu Round Trip Time (RTT) dan Time To First Byte (TTFB).

Untuk menghitung latency, Anda bisa menggunakan tools untuk mengukur Time To First Byte yang ada di 16 lokasi server yang berbeda. Berikut ini adalah cara mengukur latency menggunakan metode Time To First Byte.

Langkah pertama, silakan buka website tools.keycdn.com/performance. Kemudian, silakan masukkan URL website Anda. Kemudian lakukan “Test”. Lalu tunggu hasilnya.

Silakan lihat pada kolom paling akhir TTFB. Disitu, akan tertulis latency yang dihasilkan dari akses lokasi yang berbeda. Semakin kecil, tingkat latencynya maka akan semakin bagus.

Cara Mengurangi Latency

apa itu latency

Latency dapat dikurangi dengan menggunakan beberapa teknik yang berbeda. Mengurangi jumlah latency server akan membantu memuat sumber daya web Anda lebih cepat, sehingga meningkatkan waktu loading halaman secara keseluruhan.

  • Menggunakan Content Delivery Network

Menggunakan content delivery network dapat membantu mendekatkan sumber daya ke pengguna dengan menyimpannya dalam cache di beberapa lokasi di seluruh dunia. Setelah sumber daya tersebut di dalam cache, permintaan pengguna hanya perlu melakukan perjalanan ke Point of Presence terdekat untuk mengambil data tersebut.

  • Menggunakan Metode Prapengambilan

Mengambil sumber daya web lebih dulu tidak selalu mengurangi jumlah latensi, namun meningkatkan kinerja yang dirasakan situs website Anda. Dengan menerapkan prapengambilan, proses latensi terjadi di latar belakang saat pengguna meramban laman tertentu.

  • Caching Browser

Jenis caching lain yang dapat digunakan untuk mengurangi latensi adalah cache browser. Browser akan menyimpan sumber daya tertentu dari website secara lokal, untuk membantu meningkatkan waktu latensi dan mengurangi jumlah permintaan kembali ke server.

Kesimpulan

Latency, sekecil apapun dapat menjadi hal yang mengganggu. Memahami apa itu latency seharusnya dapat membuat Anda mengetahui penyebab dan cara menguranginya. Semoga artikel ini dapat memberikan pemahaman bagi Kanca Jejualan tentang apa itu latency.

Tingkatkan level bisnis Anda dengan website toko online Jejualan, Buka Toko Online Cuma 20 Detik. Klik di sini untuk informasi selanjutnya.

Send Comment