1read 100read
2011年12月1期UNIX27: Squid Web Proxy Cache 2 (967)
TOP カテ一覧 スレ一覧 2ch元 削除依頼 ▼
・ 次のスレ
28: 連番のH画像/動画を一気にダウンロードするX (28)
29: PC-BSDを語れ! part2 (386)
30: UNIXカフェを作ろうかと思うんですが (790)
31: root で rm -rf / (296)
Squid Web Proxy Cache 2
1 :06/02/02 〜 最終レス :11/12/03 Squid web proxy cache のスレ 本家: http://www.squid-cache.org/
2 : 前スレ http://pc8.2ch.net/test/read.cgi/unix/1034236482/
3 : 現在の安定版はは2.5.STABLE12 今のところ重大なパッチは出ていません。
4 : age
5 : 1000 名前:名無しさん@お腹いっぱい。[] 投稿日:2006/02/01(水) 18:33:08 1000なら死ぬ。 早まるな
6 : >>1 http://www1.jp.squid-cache.org/ ここが本家ですよ。 ここじゃないとキャッシュ鯖の意味ないじゃんw
7 : え?
8 : >>6 http://www.squid-cache.org/ からラウンドロビンしてくれるんじゃないの?
9 : >>6 そこを指定したら、それこそキャッシュの意味がなくなると思われ。
10 : >>6 釣れますか?
11 : 普通--disable-internal-dnsにするものですか? 最近internal DNSではまりました。 長いホスト名のURLをリクエストすると、DNSサーバから応答を加工してしまうのか、 自分がリクエストしたホスト名と、応答のホスト名があわない(応答の方が短くなってる)ため、 関係ないと判断されて、存在しないドメインとも判断できないため、 最終的にdns_timeoutまで待たされてしまいます。
12 : >>11 > 普通--disable-internal-dnsにするものですか? オイラはしたことない。 > 長いホスト名のURL 例えば?インターネット上のなら教えておくれ。
13 : >>12 いやデタラメなやつですよ。 試したのは200-300文字ぐらいだったかな。 しかも.は含まない。
14 : 256文字以上のurl?
15 : >>14 うん。ホスト名だけで200-300文字。 そんなの入力するなって話もありますが…。
16 : >>15 RFC1123 の 2.1
17 : >>15 ttp://www.llanfairpwllgwyngyllgogerychwyrndrobwyll-llantysiliogogogoch.com/ そのsquid通してここが見れるようなら他は困ることないと思う
18 : ttp://www.abcdefghijklmnopqrstuvwxyzabcdefghijklmnopqrstuvwxyzabcdefghijk.com/ ここも
19 : 255まで扱えるべきで、それ以上は特に決められてないのかな。 まあ、駄目なら駄目でさっさとエラーなり存在しないドメインとして 帰ってきて欲しいとは思う。
20 : Operaだと、その前にブラウザで弾かれたりするが。
21 : IEだと2048文字以上はうけつけないんだっけか。 65536文字まではあるらしいが。 そういえば3.14159265358……と円周率が続くドメインなかったっけ
22 : 3.141592653589793238462643383279502884197169399375105820974944592.jp DNS に登録はあるけど 80/tcp は開いてないみたい。
23 : 定期的に、キャッシュをクリアする方法を教えてください。
24 : squidclient -m PURGE *
25 : MMSとRTSPを中継する方法を教えてください
26 : >>25 スレ違い。squidの仕事ではない。
27 : LDAPを認証に使う方法を教えてください
28 : >>27 auth_param basic program <squiddir>/libexec/squid_ldap_auth -b cn=XXX,dc=XXX -D cn=XXX,cn=XXX,dc=XXX -w XXX -f cn=%s XXX.XXX.XXX.XXX acl ldapauth proxy_auth REQUIRED http_access allow ldapauth http_access deny all とか。
29 : 網膜認証を使う方法を教えてください。
30 : url_regexってhttpsでは動作しないのん? 教えてエロい人!
31 : 動くはず無いじゃない。CONNECTした後わからないんだから。
32 : >>29 目玉をくり抜いてキーボードに置くだけです。
33 : >>29 寝てる妹の鼻の穴に、ストII挿してあるSFCのACアダプタを突っ込んで 妹が寝言で「モルスァ」みたいなことを言ったらYou Win
34 : >>24 HTTP/1.0 400 Bad Request になった。
35 : Squid の話じゃないけど… 有害サイトブロックサービス(コンテンツフィルタ)終了 ttp://buffalo.melcoinc.co.jp/support_s/buf11304/index.html ビジネスにならなかったのかな? 良さげなサービスだと思ったけど。
36 : 多分プロバイダごとにサービスやってるから 競合しちゃったんじゃないかな ちなみにOCNのサービスと価格はこちら http://www.ocn.ne.jp/option/vcheck/webfilter/
37 : こういうサービスって子供向けだけかと思ってたけど、 カテゴリ別にブロックできるのは結構使えそうだね。 グロとブラクラ、ウイルスはいらん。
38 : acl localnet src 192.168.0.0 と acl localnet src 192.168.0.0/255.255.255.0 の違いを教えてください
39 : >>38 >... >...192.168.0.0/255.255.255.0 TCP/IP の subnet, subnet mask の勉強するとよいよ。 16進数、2進数までわかると、意味がわかりやすいと思います。 http://www.atmarkit.co.jp/icd/root/43/5784343.html http://www.n-study.com/network/subnetmask.htm
40 : こっちとか。 http://www.fkimura.com/subnet0.html
41 : そういう話なん?
42 : >>41 >そういう話なん? acl?localnet?src?192.168.0.0 そういえば、これが変か。
43 : squid 2.5 STABLE13 setenv書き換えてるね
44 : 何も考えずSTABLE13にageてハマってもうた header_replaceがconfigure-switchに変わったんなら 最初からそう言えやゴルア ってREADMEには書いてたんだけど orz
45 : ぐーぐる先生で検索した際、ログファイルに http://www.google.co.jp/search? - DIRECT 〜 と、だけしか記録されないんですけど squidだけに?以下を取得する設定方法はどうすりゃいいんでしょう。
46 : >>45 By default, Squid strips query terms from requested URLs before logging. This protects your user’s privacy. Default strip_query_terms on
47 : >>46 ありがとうございます。strip_query_termsで検索したら前スレが引っかかった・・・・ 基本中の基本なんすね。でも、凄く助かりました。
48 : TCP_NEGATIVE_HITって何ですか?
49 : googleからアク禁されてんの?
50 : >>48 http://www.squid-cache.org/Doc/FAQ/FAQ-6.html#ss6.7
51 : リバースプロキシを構成したいのですが、squid以外で何か候補はありますか?
52 : apache, delegate とか?
53 : poundとか
54 : perlとか
55 : Sargについての質問なんですが、どなたか居ますでしょうか? sarg-2.1-1.fc2.mack 現在FedoraCore5で上記のSargを使用しています。 [root@red sarg]# /usr/bin/sarg -o /var/www/html/sarg/daily/ SARG: Records in file: 27747, reading: 100.00% sort: オープン失敗: +6.5nr: そのようなファイルやディレクトリはありません SARG: (index) Cannot open file: /var/www/html/sarg/daily//index.sort このようなエラーは出るのですが、dailyディレクトリの中に日付のディレクトリ が出来て、その日の集計は出来ているのですが、 Squid User Access Reports FILE/PERIOD CREATION DATE USERS BYTES AVERAGE 2006Mar26-2006Mar26 Mon Mar 27 03:55:12 JST 2006 5 151,663,923 30,332,784 2006Mar25-2006Mar25 Sun Mar 26 03:55:54 JST 2006 8 314,199,108 39,274,888 このように日付が一覧になっている、インデックスページに異常があり、 2006Mar26-2006Mar26 Mon Mar 27 03:55:12 JST 2006 5 151,663,923 30,332,784 2006Mar25-2006Mar25 Sun Mar 26 03:55:54 JST 2006 8 314,199,108 39,274,888 この部分が生成されません。 これ以外はグラフも出来るし、正常のようです。 何か設定が必要なんでしょうか?
56 : 質問です 今までcache_dirを100MBにしていたのですが これは非常に少ないため、2GB位にしたいのですがL1, L2ディレクトリは16と256でもいいのでしょうか?
57 : >>56 いいんでない。 多すぎるけどね。 うちは8GBに設定してあって、いまちょうど2GBくらいだけど、 01/E0にまでしか到達してない。
58 : expireしない期間で2Gもコンテンツを読むのか?
59 : よっぽど遅い回線ならともかく、そんなに大きなキャッシュを確保すると、 HDDへのアクセスの方が時間がかかるよ
60 : ぷげらぷげら
61 : おまいらのcache_dirはいくら?
62 : >>56 cache_memからL1とL2の妥当な数を決める式については、 ttp://www.squid-cache.org/mail-archive/squid-users/200110/0923.html からthreadを追ってみるといいと思う。 (L2は256もしくは254固定でいいとされている) 妥当なL1,L2を求めるにはキャッシュに格納される1オブジェクトの大きさが 必要で、それは (平均13KBとはいっても) ユーザ環境によっても異なるだろうから、 適当に使ってみてから再検討したほうがいいと思う。 私見では、しばらく使ってみて>>57 のような状態なら sqrt(01e0) = 21.9 なことから L1,L2ともに 22 ( 好みで 32 や 30 など) にしてキャッシュディレクトリを再作成したほうが 効率いいのではないかと思う。ベンチはとってないけど。
63 : cache_dirだった
64 : 自宅の Debian Sarge で squid を使ってます。 Firefox の機能として、URL欄に firefox と入れて、Enter キーを押すと、 名前解決ができないので、google の I'm feeling Lucky 機能を利用して、 ttp://www.mozilla-japan.org/products/firefox/ に跳ぶようになっています(なっているみたいです)。 で、squid をプロキシにしていると、 The requested URL could not be retrieved と言われて止まってしまうのを、何とか解決できないもんかとご相談。
65 : squid 側でどうこうするのは無理じゃないのかな http://www.mozilla-japan.org/docs/end-user/internet-keywords.html 自分は "keyword:" で始まる奴はダイレクトに接続するようにした proxy 自動設定ファイルを、Firefox のプロキシ設定の所で 指定してる。
66 : >>64 いまsquidが手元にないので、過去の経験からの思いつきで。細部は自分で調査のこと。 まず、squidをプロキシに設定したとき、Firefox に firefox とだけ入れて Enter を押したときの access.log ログをよく読む。たぶん GET http://firefox とかなってると思う。 そしたら、squid に自作リダイレクタを組み込む。リダイレクタのサンプルはソースについてたでしょ。 内容としてはさきほど読んだログを元に、たとえば ・入力が GET ^http://^([^.]*)$ だったら # ピリオドを含まない文字列 (以降 $1 と呼ぶ) だけが指定された、と仮定 ・http://www.google.co.jp/search?ie=UTF-8&oe=UTF-8&hl=ja&lr=lang_ja&btnI&q=$1 # その文字列を Google の I'm feeling lucky に引き渡して (q=$1 のところ) 任せる というようなものを perl 他、好きな言語で書く。
67 : >>66 > GET ^http://^([^.]*)$ だったら のあたりメチャクチャだ。 メソッドが GET でかつ URIが ^http://([^.]*)$ だったら、とかそんな感じだったっけか。
68 : >>65-67 ありがとうございます。 ようやく時間がとれました。 結局、thttpd と bind9 を入れて、wpad.dat を書き keyword: を DIRECT にすることにしました。
69 : cache_mem って実際何のメモリサイズなの?
70 : Squid経由で、同じページを何度か表示させてみたんですがTCP_MISSばかりが増えて TCP_HITが全然増えないのは 何ででしょうか? 何か、キャッシュ周りで設定をミスしてるんですかね?
71 : TCP_IMS_HITも、同じくらい増加していきます。
72 : Last-Modified: とか ETag: とか Expires: とかのヘッダを吐かなくて キャッシュしようにもできないんでしょ。
73 : >>72 では、こちら側からは手の出しようがないって事ですかね? 初心者なので、見当違いのことでしたらすいません。
74 : 現存のプロキシサーバとクライアントの間に帯域抑制するだけの squidを立てて帯域を絞った接続実験をやりたいと思っています。 squidに送ったリクエストをそのまま既存のプロキシにリダイレクトしたいのですが、 cache_peer 既存プロキシアドレス parent ポート番号 7 no-query としても既存プロキシに接続しに行ってくれないようです。 (プロキシを介さずに直接接続しに行ってタイムアウトになる) cache_peerを設定するだけではダメなのでしょうか。
75 : だめです。
76 : aclでdstdomainとnever_directの設定も追加してみました。 acl local-servers dstdomain 既存プロキシのドメイン名 acl all src 0.0.0.0/0.0.0.0 never_direct deny local-servers never_direct allow all これで、既存プロキシに接続できたと思われるのですが、 ・Unable to forward this request at this time. というエラーが帰ってきます。 このエラーを解決するにはどうすればいいのでしょうか。
77 : >>74 always_direct deny all never_direct allow all
78 : >>77 never_direct allow allのみ追加することでできました。 ありがとうございました。
79 : このようなサーバ配置を考えているのですが、可能でしょうか? 具体的方法というよりは、可能かどうかを教えていただけるだけで非常に助かるのですが。 サーバは2台で、 ・DMZにリバースプロキシサーバ(Squid)。 ・内部にアプリケーションサーバで、IISがポート80、Apacheがポート8080。 リバースプロキシで、IISとApacheをまとめて1つのサイトに見せたいのです。 外から見たら、サブディレクトリが異なるだけで、1つに見えるけれども、 http://www.example.com/iis/index.htm http://www.example.com/apache/index.html 実際には、以下のような2つのアプリケーションサーバが動いている構成です。 http://192.168.0.1/iis/index.htm http://192.168.0.1:8080/apache/index.html squid.confで複数のサイトのリバースプロキシとして使うとき、実体のPortは任意なんでしょうか?
80 : >>79 > サーバは2台で、 > ・DMZにリバースプロキシサーバ(Squid)。 > ・内部にアプリケーションサーバで、IISがポート80、Apacheがポート8080。 こういう使い方なら前段のproxyをapacheにやらせた方がイクネ?
81 : なるほど、apacheのmod_proxyの方が適しているという事ですね。 プロキシとしてsquidの方が多機能だと考えたので、squidで出来なければapacheでも無理と単純に考えたのですが、 リバプロとして使うなら、一概にsquidの方が多機能とは限らないのでしょうか・・・
82 : >>81 redirectorを使えばできるかも ttp://www.squid-cache.org/Doc/FAQ/FAQ-15.html#ss15.1
83 : >>79 思い描いてるそのままには出来ないと思います。 ポートを分けて運用するのではなく、IIS+ApacheのサーバにはIPアドレスを 2つ振って、バインドするアドレスを変えるというやり方ならいけると思います。
84 : いや元の構成でも、リダイレクタ使えばいいか.. 失礼しました。
85 : 初めてのカキコです。みなさまよろしくです。 squid初心者です。皆様の力を貸してください。 現在、訳あってsquidの管理をしているんですが、あるサイトのオンデマンドコンテンツが squid経由で再生されないトラブルを抱えています。 リンク先の拡張子は「asx」で、実態は「wmv」形式で配信されています。 そのサイト管理者に問い合わせた所、HTTP経由で配信しているため、「80」の ポートが空いていれば見られるはず。と言っています。 squidのhttp接続ポートは「8080」です。 スレ違いかもしれませんが、squid経由で「wmv」形式の動画を見るような設定って あるんでしょうか?どうか、ご教授ください。
86 : >>85 > スレ違いかもしれませんが、squid経由で「wmv」形式の動画を見るような設定って > あるんでしょうか?どうか、ご教授ください。 ふつー見えるんじゃないかな。具体的にうちのサイトのログを出すと 192.168.44.69 - - [01/May/2006:08:53:20 +0900] "GET http://www.nhk.or.jp/topmenu/movie/topmeta3060501.asx HTTP/1.0" 200 713 TCP_MISS:ROUNDROBIN_PARENT 192.168.44.69 - - [01/May/2006:08:53:27 +0900] "GET http://wm.nhk.or.jp/telemap/501200a0.wmv HTTP/1.1" 200 5083 TCP_MISS:ROUNDROBIN_PARENT こんな感じだが…。 その「あるサイトのオンデマンドコンテンツ」って どこのエロサイトのなんてエロコンテンツなのかな?
87 : ちなみに最後のwmv拡張子のメタファイルを受信した後は Port 1755へリクエスト出してストリーミングメディアを 受信してると思うけど、それはsquidが関与しない世界。
88 : squidのバージョンが書かれていませんが、コチラの環境で以前、squid経由で ストリーミング(Media Player)が再生できなかったことがあります。 原因はheader_access Server deny allが入っていたためでした。 差し支えない範囲でsquid.confを晒してみてはいかがでしょう?
89 : 85 です。 みなさま、ご教授ありがとうございました。 自己解決しました。!! その後、色んな文献を調べたところ、squid.conf内の「anonymize_headers」パラメータで、 「Location Pragma Accept」が「deny」になっていましたのでこれを無効(コメント)に したところ、Squid経由で、該当の動画が閲覧できるようになりました。 86さん、申し訳ないんですが、エロサイトではなく、ちゃんとしたサイトです。 企業名とかが分かってしまうため、名前が出せないんです。すいません。 87さん、このサイトは、Port1755へはリクエストしていないんです。 HTTPストリーミングって言うやつで、HTTPのポート(80)に乗っけて 配信されているらしいです。 88さん、この情報が参考になりました。 ちなみに、Squidのバージョンは「2.3 STABLE4」です。 このバージョンには、「header_access」パラメータはありませんでしたが、 それに代わるパラメータとして、「anonymize_headers」と言う パラメータの該当項目をコメントにしたら、再生されるようになりました。 大変、ありがとうございました。 「anonymize_headers」自体は、Webサイト閲覧時に相手側のログに、Squidの環境情報を 隠蔽(情報漏洩対策)するための設定とまでは分かったのですが、この、「Location Pragma Accept」は 何を意味しているのでしょうか? 度々の質問で申し訳ありませんが、どなたか分かる方がいらっしゃいましたら、よろしく お願いいたします。 色々と調べてみても、中々良い情報がないんです。すいません。
90 : 問題が解決できたようでよかったです。 お互いがんばりましょう。 「Location Pragma Accept」で1セットではないです。念のため。 LocationなどはHTTPの通信に使われるヘッダ情報になります。 つまり、HTTPの通信をする際に、指定したヘッダや環境変数を隠蔽 (通さなくする)していたわけです。 squidではなく、HTTPのやりとりについて調べてみてはいかがでしょうか。
91 : >>89 >86さん、申し訳ないんですが、エロサイトではなく、ちゃんとしたサイトです。 何だこれ? エロサイトがちゃんとしたサイトではないとでもいうのか。 答える気失せた。
92 : 89 です。 88さん、色々とありがとうございます。 Squidの環境情報ではなく、HTTPのヘッダ情報なんですね。 色々と勉強になりました。 この部分について、ちょっと勉強してみます。 91さん、別にそう言う意味で言った訳ではないので誤解しないでください。 気分を害したなら申し訳ありません。 ただ、私が真剣に悩んでいるのに、「オンデマンドコンテンツ=エロサイト」と 決め付けるあなたにも問題があるのではないですか? エロサイトだけが、オンデマンドコンテンツではありませんので。
93 : エロサイトが真剣じゃないとでも言うのか
94 : >>89 何か勘違いされているようなので一点だけ。 >ただ、私が真剣に悩んでいるのに、「オンデマンドコンテンツ=エロサイト」と >決め付けるあなたにも問題があるのではないですか? そんなこと決め付けてないんだが。
95 : j3,Webサイトの種類について「ちゃんとした」とか「真剣に」とかいって 偏見を持っているような人は放置ってことで。 何事もなかったように次の話題ドゾー。
96 : squidでエロサイトをはじきたいのですがどうしたらいいですか? ちゃんとしたエロサイトはオーケーにしたいのですが。
97 : 選り分けるサルをインストールせよ。
98 : squidGuard
99 : >>96 お前のセンサーを信じろ
100read 1read
1read 100read
TOP カテ一覧 スレ一覧 2ch元 削除依頼 ▲
・ 次のスレ
28: 連番のH画像/動画を一気にダウンロードするX (28)
29: PC-BSDを語れ! part2 (386)
30: UNIXカフェを作ろうかと思うんですが (790)
31: root で rm -rf / (296)