ToDo:
掲示板 にも書きましたが、Beam Line Element名での Caseの扱いが変です。 MAINレベルとか SADScript関数(LINE/Element/...)では Case Preserveかつ Case Sensitive Matchなんですが、FFSコマンドラインは Case Preserveで無い上に Case Sensitive Matchのようで、小文字混じりの要素を FITや FREE/FIXに 使えないことを見付けました...Orz
コマンド名を Case Insensitive Matchするのでなく、問答無用で 全てのtoken(コマンド名以外を含む)のCaseを正規化してから Case Sensitive Matchをかけてるっぽいのですが...
少なくともシステムの一貫性が損なわれている部分は修正すべきなのですが、 正しい仕様はなんなんでしょう?
script/bench2.sadにて、RFMARK2と宣言した要素を fit rfmark2 ...で参照するコードを発見
つまり、過去のコードは FFSコマンドラインでの要素名に対する Case Insensitive Match若しくはCase Normalizationを 期待している...頭痛くなって来たぞ Orz
たぶん、後方互換性を維持するには Case Matching Ruleを制御する フラグか関数を導入する必要があるとみた(Case Normalizationを 強要すると LINE/Element関数が Case Sensitiveで無くなるので、 それに依存したコードの互換性を損なうし...全ての要素名が 表れる部分にCase Normalizationを実装するのは面倒)
1000BASE-TでのスループットをnetioでTCPでの通信速度を測定してみると、 色々興味深いことが分かった。
割り込みモードだと、Txは112MB/sまで伸びるが、Rxは25MB/s辺りで頭打ち。 また、性能はパケットサイズにあまり依存しない。
ポーリングモードだと、Txは90〜112MB/s、Rxは12〜92MB/s辺りで、 パケットサイズに依存する。(2kB以下のパケットサイズではRxは割り込みモー ドの半分程度しか性能が出ない)
であるのだが、ipfwをくぐらせるとTxスループットが4分の1程度まで落ちてしまう。 また、TCP Segmentation Offloading(tso)がONだとRx性能がかなり下がる。 逆にTCP Segmentation Offloading(tso)がOFFだとRxスループットが 伸びるのだが、Tx/Rxスループットともに値が安定しない。
チップの特性的には、Rxバッファが少ないか受信割り込み回りの性能が 低めのようである。
ipfwと組み合わせた際の謎の挙動は、NICとipfwの処理速度と TCPのバッファリングや輻輳制御と干渉が起こっているのであろうか?
nfeからStore Forward Switch経由で 100BASE-TXのホストに繋いで TCPスループットを測定した場合
TCP Segmentation Offloading(tso)の無いとき NETIO - Network Throughput Benchmark, Version 1.26 (C) 1997-2005 Kai Uwe Rommel TCP connection established. Packet size 1k bytes: 11399 KByte/s Tx, 11468 KByte/s Rx. Packet size 2k bytes: 11505 KByte/s Tx, 11233 KByte/s Rx. Packet size 4k bytes: 10894 KByte/s Tx, 11468 KByte/s Rx. Packet size 8k bytes: 11510 KByte/s Tx, 11281 KByte/s Rx. Packet size 16k bytes: 11454 KByte/s Tx, 11280 KByte/s Rx. Packet size 32k bytes: 11508 KByte/s Tx, 11100 KByte/s Rx. Done. TCP Segmentation Offloading(tso)の有るとき NETIO - Network Throughput Benchmark, Version 1.26 (C) 1997-2005 Kai Uwe Rommel TCP connection established. Packet size 1k bytes: 20836 Byte/s Tx, 1777 KByte/s Rx. Packet size 2k bytes: 24393 Byte/s Tx, 1630 KByte/s Rx. Packet size 4k bytes: 24229 Byte/s Tx, 1625 KByte/s Rx. Packet size 8k bytes: 20908 Byte/s Tx, 1626 KByte/s Rx. Packet size 16k bytes: 16584 Byte/s Tx, 1623 KByte/s Rx. Packet size 32k bytes: 16579 Byte/s Tx, 1639 KByte/s Rx. Done.
Rxスループットが致命的低い&何やら、20MB/sという不思議な数字が... 少なくとも、nfeのTCP Segmentation Offloading(tso)の実装は かなり怪しいようで...
先日のpanicであるが、大体分かった気がする...
という状況で、環境依存であることに気が付きました。 特に、dumpらしき長時間のアクセスランプの点滅があるのに crash dumpが取 れていない点に着目し、dump中に mirror構成の swap deviceから SSDを引き 抜いて見たところ、crash dumpが成功し CAM layer内で panicが発生したこと が判明しました。
swapと rootは SSD+HDDな mirror構成だったのですが、SSD側に書き込み不能 な状況で panicし、crash dumpも primaryな SSD側への書き込みに失敗し dumpが残らない状態で rebootしていたようです。
な状況から考えるに、使用していたIntel製SSDに問題があるのかもしれません。
SSDは、高いけど TOSHIBA製しか使い物にならないのかな...Orz
忘れそうなので、環境構築のメモ
NAS箱の認証情報統合を考えてるので、ADのPDCを構成することが目的
まずは、samba4.xのインストールと動作環境系の覚書
AD作成の覚書
samba-tool domain provision --domain=MYDOMAIN --realm=MYDOMAIN.AD.EXAMPLE.JP --use-rfc2307 --adminpass=HOGEHOGE
ldbedit -H /var/db/samba4/private/idmap.ldb
samba-tool domain passwordsettings set --max-pwd-age=0
samba-tool domain passwordsettings set --complexity=off
samba-tool user add MY_SMB_ACCOUNT --nis-domain=MY_DOMAIN --uid=MY_ACCOUNT --uid-number=MY_UID --gid-number=MY_GID --unixhome=MY_HOME_DIR --login-shell=/bin/tcsh
カテゴリー: Admin | Emacs | EPICS | Fortran | FreeBSD | GCC | hgsubversion | IPv6 | KEKB | LHC | Lisp | LLVM | MADX | Ryzen | SAD | samba | tDiary | unix | WWW | YaSAI | お仕事 | イベント | 出張 | 宴会 | 数学 | 艦これ | 買いもの | 追記 | 雑記