Pages

Senin, 22 Juni 2015

FUNGSI ANALISIS WEB

Fungsi Analisis web ? yaitu sebuah penelitian tentang tingkatan rank pada sebuah situs, dimana situs tersebut berada diurutan berapa dalam search engine. Berikut beberapa penjelasan tentang Analisis web.

1. Analisis Website dengan menggunakan Alexa Rank

https://wikishare27.files.wordpress.com/2014/10/31.png

Alexa rank itu adalah sebuah peringkat terhadap sebuah website atau blog berdasarkan trafik atau banyaknya pengunjung yang diberikan atau dibuat oleh alexa.com, dan data trafik tersebut diambil melalui toolbar alexa pada browser pengunjung website atau blog tersebut. Alexa rank setiap website atau blog berbeda-beda jumlahnya. Jika alexa suatu blog rendah maka semakin bagus namun jika alexa suatu blog tinggi, artinya trafik blog tersebut rendah. Beda dengan Page Rank yang diberikan oleh mbah google karna semakin tinggi Page Rank suatu blog maka semakin bagus pula blog tersebut, namun nilai page rank google tak sebanyak alexa rank yaitu maksimal PR 10.

Alexa Traffic Rank tidak sepopuler punyanya Google. Namun ternyata Alexa Rank cukup penting bagi para Blogger yang ingin menjadikan blog-nya sebagai monetize blog karena kebanyakan menggunakan rank Alexa sebagai syarat atau patokan dalam menentukan nilai dari sebuah website. Dan berikut ini tips meningkatkan alexa rank web atau blog kita.

untuk memasang widget alexa rank kalian bisa menggunjungi situs dibawah ini : 


Kekurangan & Kelebihan Alexa Rank :

Kekurangan :

    1. kenyataan data Alexa hanya sebuah hitungan kasar dan tidak relevan.
  • Alexa hanya akan menghitung data secara akurat apabila pengunjung (visitors) telah menginstall alexa toolbar. Banyak website / blog yang sebenarnya mempunyai jumlah pengunjung dan pembaca yang lumayan banyak tetapi Rangking alexa-nya tidak begitu bagus. Ini di karenakan banyak sekali pengguna internet yang tidak menginstall alexa toolbar di browser mereka, jadi kemungkinan terindeksnya kunjungan mereka ke web kita akan kecil.
  • Apabila sebuah website / blog mendapatkan satu pengunjung yang datang mengunjungi halaman dan membaca banyak artikel (page views) dalam sehari, maka hitungan data yang disimpan tetap satu kali.
  • Site linking / backlinks, semakin banyak situs lain yang mengarah ke website kita maka akan semakin bagus ranking alexa. Untuk mendapatkan hal itu memang sangat butuh kerja keras, (ya memang harus sih), tetapi yang ironis adalah apabila sebuah blog / website mempunyai tingkat traffic tinggi namun jumlah links yang terhubung ke situs web-nya lebih sedikit dari website lain yang sejenis, maka bisa saja ranking alexa situs yang banyak link itu akan lebih bagus, walaupun trafficnya tidak terlalu banyak.
  • Hanya domain utama yang punya peluang terindeks secara akurat. Alexa akan melakukan tracking pada website utama sebagai prioritas. Sementara untuk sub-domain atau sub-page, seperti blog dll, membutuhkan usaha super keras agar mudah dan cepat menghasilkan ranking terbaik.
  • Ada beberapa tawaran pro account di samping free account pada web alexa, dimana kita bisa upgrade account dan membayar dengan credit card atau paypal. Setelah itu kita bisa memperoleh sertifikat dan segala blablabla-nya. Anda bisa lihat dan check di http://www.alexa.com/plans.

    Kelebihan :
      
    1. Komersial (Monetize)

    Inilah tujuan utama bagi kebanyakan bloggers atau webmasters. Bila berkaitan dengan meraih “penghasilan” melalui iklan dan program marketing, memang Alexa Rank ini sangat penting. Semakin bagus ranking Alexa suatu blog / website, maka akan semakin besar peluang untuk memperoleh penghasilan yang besar pula. Kebanyakan para pengiklan dan program afiliasi (marketing) bergengsi akan lebih tertarik pada situs yang sudah populer.

    2. Pribadi

    Bila hasil karya dan hasil kerja kita di hargai dan di sukai oleh orang lain, pasti akan sangat membanggakan. Dengan peringkat Alexa yang bagus, itu artinya banyak orang yang gemar akan konten dan informasi yang kita bagikan. Sudah pasti akan menambah semangat tersendiri dalam diri kita kan. Worthed ..


    3. Persaingan 
    Seperti yang kita baca di atas bahwa alexa rank akan menempatkan situs kita dalam jajaran peringkat dunia bersama trilyunan website besar lainnya, ini membuat situs pribadi / bisnis kita terlihat bergengsi. Data Alexa lumayan detail, dimana kita bisa mengetahui seberapa populerkah blog / website kita, dari mana visitor mengetahui situs kita, berapa banyak links yang mengarah ke blog / website kita, dan banyak lagi.
2. Search Engine

Apa sih Search Engine itu ? Lantas Apa itu Search Engine? Search Engine adalah istilah yang digunakan untuk website tempat orang mencari (mesin pencari) seperti Google.com misalnya. Di Mesin Pencari seperti Google, ada ribuan bahkan orang mencari informasi dengan mengetikkan kata atau beberapa kata yang ingin mereka temukan informasi lebih detailnya.

Anda sudah sering mencari di Google? Jika belum, Anda bisa mencobanya dengan masuk ke website Google.com kemudian ketikkan “belajar bisnis” misalnya, maka ribuan index informasi akan Anda temukan, kemudian klik saja pada  judul-judul pada hasil pencarian tersebut untuk menuju ke halaman website yang membahas topik yang anda carai tadi dalam hal ini “belajar bisnis”.

Sekarang Anda sudah tau apa itu Search Engine. Search Engine atau mesin pencari ini juga ada yang spesifik untuk Indonesia, misalnya untuk Google adalah Google.co.id  sedangkan untuk Yahoo Indonesia adalah id.Yahoo.com. Pemain Internet Marketing Indonesia yang menarget pasar lokal seperti Indonesia akan mencoba untuk memenangkan persaingan di Local search engine tersebut, sedangkan pemain internet marketing global akan menarget search engine global pula.

3. Web Archiving

 Apa itu Web Archiving ?

            Web Achiving atau pengarsipan adalah proses pengumpulan bagian dari World Wide Web (WWW) untuk memastikan informasi yang diawetkan dalam arsip bagi para peneliti di masa depan, sejarawan, dan masyarakat umum. Web terbesar pengarsipan organisasi berdasarkan pendekatan merangkak massal adalah Internet Archive yang berusaha untuk memelihara arsip dari seluruh Web Perpustakaan Nasional , Arsip Nasional dan berbagai konsorsium organisasi juga terlibat dalam pengarsipan konten Web budaya penting. Web komersial pengarsipan perangkat lunak tersedia untuk organisasi yang perlu arsip konten web.



Pengumpulan Web

            Arsiparis web umumnya biasanya mengumpulkan arsip berbagai jenis konten web termasuk HTML halaman web, style sheet , JavaScript , gambar , dan video yang . Mereka juga arsip metadata tentang sumber daya dikumpulkan seperti waktu akses, tipe MIME , dan panjang konten. Metadata ini berguna dalam membangun keaslian dan asal dari koleksi arsip. Jangan lupa tak begitu saja arsiparis mengumpulkan arsip yang begitu banyak adanya, tentu saja ada metode-metodenya.

*maksudnya arsiparis diatas adalah orang yang mengelola, memelihara, dan memberikan informasi suatu dokumen/file. Oke silahkan simak metode dibawah ini :

Metode Pengumpulan web

1. Jauh panen
Yang paling umum teknik web pengarsipan bekerja sama dengan web crawler untuk mengotomatisasi proses pengumpulan halaman web . Web crawler biasanya mengakses halaman web dengan cara yang sama bahwa pengguna dengan browser melihat Web, dan karena itu menyediakan metode yang relatif sederhana konten web panen jauh. Contoh web crawler digunakan untuk web pengarsipan meliputi:

• Heritrix
• HTTrack
• Wget

2. On-Demand
Ada banyak layanan yang dapat digunakan untuk sumber arsip web "on-demand", namun menggunakan teknik web merangkak. Layanannya seperti berikut :

• Aleph Arsip, layanan pengarsipan web untuk kepatuhan terhadap peraturan dan eDiscovery bertujuan untuk perusahaan industri hukum dan pemerintah.

• Archive.is, sebuah layanan gratis yang menyimpan halaman dan semua gambar nya. Hal ini dapat menyimpan halaman Web 2.0.

• Arsip-It, sebuah layanan berlangganan yang memungkinkan lembaga untuk membangun, mengelola dan mencari arsip web mereka sendiri.

• Archivethe.net, shared web-platform pengarsipan dioperasikan oleh Internet Research Memory, spin-off dari memori internet dasar (sebelumnya Yayasan Arsip Eropa). IM Situs Web.

• Kepatuhan WatchDog oleh Site Quest Teknologi, sebuah layanan berlangganan yang memungkinkan pengguna untuk menelusuri situs,  seperti yang muncul di masa lalu. Hal ini juga memonitor situs jika disitus tersebut terdapat perubahan.

• Snapshot freezePAGE , sebuah layanan gratis / berlangganan. Untuk melestarikan snapshot.

• NextPoint , menawarkan berbasis cloud otomatis, untuk kebutuhan terkait pemasaran, kepatuhan dan litigasi termasuk penemuan elektronik

• Situs-Archive.com , layanan berlangganan. Menangkap layar-tembakan halaman, transaksi dan perjalanan pengguna menggunakan "browser yang sebenarnya". Layar-tembakan dapat dilihat secara online atau download dalam arsip bulanan. Menggunakan Pengujian Cloud teknologi.

• Dll, karna penyedia layanan situs archive ini sangatlah banyak.

Database Pengarsipan

            Database pengarsipan mengacu pada metode untuk pengarsipan konten yang mendasari situs database-driven. Hal ini biasanya memerlukan ekstraksi dari basis data konten ke standar skema , sering menggunakan XML . Setelah disimpan dalam format standar, konten diarsipkan beberapa database kemudian dapat dibuat tersedia menggunakan sistem akses tunggal. Pendekatan ini dicontohkan oleh DeepArc dan Xinq alat yang dikembangkan oleh Bibliotheque nationale de France dan National Library of Australia.

Transaksional pengarsipan

          Transaksional pengarsipan merupakan pendekatan-event, yang mengumpulkan transaksi aktual yang terjadi antara server web dan browser web . Hal ini terutama digunakan sebagai sarana melestarikan bukti dari isi yang sebenarnya dilihat pada tertentu situs web , pada tanggal tertentu.

          Sebuah sistem pengarsipan transaksional biasanya beroperasi dengan mencegat setiap HTTP request ke, dan respon dari, web server, penyaringan setiap respon untuk menghilangkan duplikat konten, dan secara permanen menyimpan tanggapan sebagai bitstreams. Sebuah sistem pengarsipan transaksional membutuhkan instalasi perangkat lunak pada server web, dan karenanya tidak dapat digunakan untuk mengumpulkan konten dari situs remote.

Crawler

            Web arsip yang mengandalkan web merangkak sebagai sarana utama mereka mengumpulkan Web dipengaruhi oleh kesulitan merangkak web :

• Para robot protokol pengecualian dapat meminta crawler tidak dapat mengakses bagian dari sebuah situs web.

• Sebagian besar dari sebuah situs web mungkin tersembunyi di dalam Web . Misalnya, halaman hasil balik formulir web terletak pada dalam Web karena kebanyakan crawler tidak bisa mengikuti link ke halaman hasil.

• Perangkap Crawler, dapat menyebabkan crawler untuk men-download jumlah tak terbatas halaman, sehingga crawler biasanya dikonfigurasi untuk membatasi jumlah halaman dinamis sehingga tidak pesat kemajuannya.

Namun, penting untuk dicatat bahwa format web arsip asli, yaitu, dibrowse arsip web sepenuhnya, dengan link kerja, media, dll, hanya benar-benar mungkin menggunakan teknologi crawler.

Keterbatasan Umum

            Tidak hanya harus arsiparis web menghadapi tantangan teknis web pengarsipan, mereka juga harus berhadapan dengan hukum kekayaan intelektual. Peter Lyman menyatakan bahwa "Meskipun Web Yang Populer Dianggap Sebagai Domain Publik Sumber Daya, Itu Hak Cipta , Dengan Demikian, Arsiparis Tidak Memiliki Hak Legal Untuk Menyalin Web ". Namun perpustakaan nasional di banyak negara memiliki hak legal untuk menyalin bagian-bagian dari web di bawah perpanjangan deposito hukum .

            Beberapa arsip web nirlaba swasta yang dibuat dapat diakses publik seperti WebCite , yang Internet Archive atau memori internet memungkinkan pemilik konten untuk menyembunyikan atau menghapus konten diarsipkan bahwa mereka tidak ingin publik untuk memiliki akses ke. Arsip web lainnya hanya dapat diakses dari lokasi tertentu atau memiliki penggunaan diatur. WebCite mengutip gugatan baru terhadap caching Google.

Aspek Kurasi Web (menambahkan nilai dan memilih hanya konten yang paling relevan untuk pengguna spesifik)

Web yang memiliki kurasi, seperti kurasi digital, harus memiliki seperti :

•Sertifikasi kepercayaan dan integritas isi koleksi
• Mengumpulkan aset Web diverifikasi
•Menyediakan pencarian aset Web dan pengambilan
•Kontinuitas semantik dan ontologis dan komparatif dari isi koleksi

Dengan demikian, di samping membahas metode pengumpulan Web, mereka memberikan akses, sertifikasi, dan pengorganisasian harus disertakan. Ada satu set alat populer yang membahas langkah-langkah kurasi :

Sebuah suite alat untuk Web Kurasi oleh International Internet Preservation Consortium :

•Heritrix - situs resmi - mengumpulkan aset Web
•NutchWAX - pencarian Web arsip koleksi

•Wayback (Open source Wayback Machine) pencarian koleksi arsip Web menggunakan NutchWax
•Web Kurator Alat - Seleksi dan Pengelolaan Web Collection
• dll . 


Sumber :

http://jayaweb.com/artikel/desain-web/122-apa-sih-search-engine-itu.html
http://faris6593.blogspot.com/2013/04/web-archiving-yang-terawetkan.html#ixzz3dnBvVtZD



0 komentar:

Posting Komentar

Pengunjung