|
以及算法的變化時,這非常有用。新聞驗證:記者和事實核查人員可以使用網絡檔案來驗證故事的真實性或驗證來源是否已被編輯以更改內容的原始含義。法律歸檔:企業和組織可以使用 Web Archive 來維護出於法律目的的網頁副本,例如記錄爭議或訴訟。文化遺產保護:網絡檔案允許您保存具有歷史、文化和科學重要性的網站內容,從而使知識過程得以延續並保護文化遺產。如何使用網絡檔案要使用 Web Archive,只需訪問網站並輸入您想要查看舊版本的網站或特定頁面的 URL。
您還可以使用搜索功能在存檔副本中搜索特 电话号码列表 定網頁或術語。使用 Web Archive 沒有具體限制,用戶可以根據自己的意願執行任意次數的搜索。使用 Web Archive 是免費的,任何人都可以訪問。互聯網檔案館是一個非營利組織,其目標是讓所有人都能訪問互聯網的內容。但是,建議尊重版權法,未經作者許可,不要將存檔內容用於商業目的。Web Archive 如何發現並保存網頁?Web Archive 使用名為 Heritrix 的網絡爬蟲來發現和保存網頁。Heritrix 是互聯網檔案館的開源、可擴展、網絡規模、檔案質量的網絡爬蟲項目。網絡爬蟲的工作原理是訪問網站並跟踪頁面上的所有鏈接以查找要訪問的新網站。網絡爬蟲使用算法來確定首先訪問哪個頁面以及訪問頁面的順序。
Web Archive 網絡爬蟲開始訪問最流行和最重要的網站,然後按照鏈接發現新網站。網絡爬蟲還可以使用用戶提供的網站列表或搜索引擎生成的網站列表。一旦網絡爬蟲找到一個網站,它就會下載該頁面的副本並將其添加到存檔中。網絡爬蟲還可以下載頁面上存在的圖像、視頻和其他多媒體內容。網絡爬蟲被編程為定期訪問已存檔的網站,以檢查它們是否已更新並獲取任何新版本。此外,網站所有者可以通過“機器人排除協議”(REP)將其頁面從存檔中排除,該協議用於告訴爬蟲他們不希望爬行網站的哪些頁面或部分。事實上,Heritrix 的設計是為了尊重 robots.txt 中表達的指令,並進行掃描,盡量不使 Web 服務器飽和。
為什麼 Web Archive 不保存我網站的所有頁面,而只保存部分頁面?網絡存檔可能無法存檔您網站上的所有頁面有多種原因:網絡檔案算法可能會過濾某些頁面,因為它們被認為是多餘的或不是很重要。您的網站可能太新,尚未被網絡檔案網絡爬蟲捕獲。您的網站可能有爬網程序排除策略,網站所有者不允許網絡爬網程序獲取其頁面的副本。您的網站可能太大,網絡爬蟲無法在單個爬網周期中捕獲所有頁面。您的網站的內容或頁面數量可能有限,因此需要存檔的所有內容都已存檔。
|
|