サイトバレを防ぐために

先日のコラムに関連して閉鎖関係をもうひとつ。「サイトバレ」ってありますよね。当サイトは誰にバレても痛くも痒くもないんですが、日記サイトというものをやっていると題材がプライベートに密接に関わってくるので「あの人に見られたら困る」という人もいるでしょう。で、その危惧が現実となってしまい閉鎖するのが、いわゆる「サイトバレ」です。
でもね、「サイトバレ」って防ごうと思えば防げるんですよ。今回はその方法をお教えしましょう。って言ってもネット歴がそこそこの人には真新しい情報はないかもしれません。「んなこと知ってるよ!!」って人には「すまん」と謝っておきます、最初に。



セキュリティ意識を持て!!

ソーシャルハックという言葉をご存知でしょうか。ハッキングの手法の一つで、稼動しているシステムに直接アクセスせず、人や物を介して情報を入手する方法です。例えばゴミ箱から情報システムに関する資料を盗んだり、企業に電話をかけ担当者から情報を盗み出したりとかですね。サイトバレも大部分はこういったことが原因です。
例えば知られたくない人に自分がサイト持ちであることを仄めかしたり、共有しているPCを同IDで使っていたり、サイトとプライベートで同じメールアドレスを使っていたり、友人に自分のサイトと同ジャンルのサイトをオススメしたり。etc,etc…。
こういった人はサイトバレの危険を孕んでいますので、速やかに対処しましょう。余談ですが、僕はメールアドレスをぐぐられて、昔運営していたサイトが会社の先輩にバレてしまい非常に恥ずかしい思いをしました。

ロボット除けを行え!! 1(meta要素編)

いくらセキュリティに気をつけていても偶然検索エンジンより見つかってサイトバレしてしまうという可能性もあります。実際は上記セキュリティとの複合が一番多いパターンではないでしょうか。ここでは検索ロボットのクロールを防ぐ為の手段のひとつであるmeta要素の記述の仕方をお教えしましょう。
サイト内全てのHTML文書のhead要素内に以下の記述をして下さい。

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
上記記述を行うことにより検索ロボットのクロールを防ぎます。他にも

<META NAME="ROBOTS" CONTENT="NOARCHIVE">
と記述することによりキャッシュページを削除することも可能です。既にサイトを持っている人は両方の記述を追加することをオススメします。対策を急ぎたい方はGoogleURLの削除を利用して下さい。Googleでしか有効ではありませんが、Google検索エンジンの最大手ですので、それなりの効果は望めるでしょう。

ロボット除けを行え!! 2(robots.txt編)

検索エンジンのクロールを防ぐもうひとつの方法としてrobots.txtがあります。以下それぞれの検索ロボットに対応したrobots.txtの記述方法です。
Google
User-Agent: Googlebot
Disallow: /
Wayback Machine
User-Agent: ia_archiver
Disallow: /
http://www.lycos.co.jp/
User-Agent: ZyBorg
Disallow: /
gooニュース 検索 フレッシュアイは 「今」を知る情報サイトです
User-Agent: slurp
Disallow: /
Bing
User-Agent: msnbot
Disallow: /
他にも色々あるようですが割愛。軽い気持ちで調べ始めたのですが、いやはや奥が深い。
以上がサイトバレが防ぐ方法です。まぁネット歴がそこそこの方なら常識なのかもしれませんが。

最後に。一番大切なのは、上記方法を徹底することです。これが一番大事。それでは楽しいネットライフを。
参考