wgetでデータのダウンロード。
■ wgetでゲットだぜ!(ちと古いか)
ローカルサーバもでき、保存場所も決まったのはいいけど特別に「何か世界に訴えたいことがある」わけではないのでyuzo的データ保存の場所にしてしまいましょう。 前から気になっていたことですがインターネットでいろんなところをブラウズしていて気に入ったページを見つけたらブックマークに追加していくわけですが、えてして後から同じページを探し出すのは難しかったりします。うまく見つかってもページ自体がなくなってしまったり、アップデートされて内容が変わってしまったりと悲しい思いをしているのは私だけかしら。 というわけで気に入ったページをソックリとローカルサーバにコピーしてしまいたい。そこで活躍しそうなのがwgetです。 [1]wgetのインストール いつものようにパッケージからインストールします。
[2]wgetでページをコピーする まずはやってみましょう。さすがにサイト内全部のデータをダウンロードしていたら管理者に怒られてしまいますから気をつけてください。(サーバーの負荷は相当な物になると思われます)
clio# cd ~yuzo/public_html
たったこれだけでページがコピーできます。データは階層的に格納されるので他サイトのデータと混ざらないので後々のデータ管理も簡単です。
結果はこんな感じです。CGI等はうまくコピーできませんが実用的には十分ですね。 リンクをもう少し深く(5段ぐらい)にするともう少しオリジナルに近づくかもしれませんが・・・こんなもので十分と思います。ページ張られたリンクが生きているのがうれしいですね。
|
|
|