Sequential search faster than binary search in SBCL
Hashtable faster than binary search in SBCL.
Meta note
対象読者
Common Lisp Evangelist.SBCL Evangelist.- 最適化に力をいれたいCLer
Introduction
SBCLに於いて線形探索が2分探索より速かったというお話。
Hashtableを使った探索が二分探索より速かったというお話。
Theory
線形探索はO(n)で2分探索はO(log n)なので2分探索のほうが速いのは皆様ご承知の通り。 大胆な発言が許されるなら、要素数が3を超えたら2分探索のほうが理屈上は速くなります。
Common Lisp comunity
他の言語は知りませんが、Common Lispという言語とその文化圏では割と速度や効率が重要視される傾向にあるように見えます。 速いということや効率の良さを謳ったライブラリも散見されます。 ところがそんなライブラリのソースコードを覗いてみると割と線形探索が多様されており、2分探索をほとんど見ないように思います。 ALEXANDRIAのような主要なユーティリティライブラリにも2分探索アルゴリズムは含まれておりません。
bsearch
「それ、2分探索にしたらそれだけでもっとはやくなるんじゃないの?」 というわけでさくっと関数を書いてみました。
(defun bsearch(item vector &key (key #'identity)(test #'eql)(start 0)(end (length vector)) (compare #'<)(default nil))
(declare (type fixnum start end)
(type function key test compare)
(type simple-vector vector)
(dynamic-extent key test compare)
)
(assert(<= 0 start end (length vector)))
(labels((ON-THE-NODE(center %)
(declare(type fixnum center %))
(if(zerop center)
(REACHED-LEAF % (+ center start))
(CHECK-CONTENTS(+ center start))))
(REACHED-LEAF(% index)
(let((i(if(zerop %) ; (= end start)
(1+ index)
index)))
(declare(type fixnum i))
(DETERMINE-RETURN-VALUE i (svref vector i))))
(DETERMINE-RETURN-VALUE(index target)
(if (funcall test item (funcall key target))
(values target index)
(values default nil)))
(CHECK-CONTENTS(index)
(let*((target(svref vector index))
(elt (funcall key target)))
(if (funcall test item elt)
(values target index)
(REC elt index))))
(REC(elt index)
(if(funcall compare item elt)
(setf end index)
(setf start index))
(multiple-value-call #'ON-THE-NODE (floor (- end start)2)))
)
(declare(inline REACHED-LEAF DETERMINE-RETURN-VALUE CHECK-CONTENTS REC))
(multiple-value-call #'ON-THE-NODE (floor (- end start) 2))))
Bench
ベンチは以下のようにして取りました。
(defun vec(size)
(make-array size :initial-contents (loop :for i :below size :collect i)))
(defun bench(vector)
(let((size(length vector)))
(print :find)
(time(dotimes(x 10000)
(find (random size)vector)))
(print :bsearch)
(time(dotimes(x 10000)
(bsearch (random size)vector)))))
CCLでは以下の通り。 (重要なところのみ抽出してあります)
? (bench(vec 10))
:FIND
took 5 milliseconds
:BSEARCH
took 30 milliseconds
? (bench(vec 100))
:FIND
took 19 milliseconds
:BSEARCH
took 52 milliseconds
? (bench(vec 1000))
:FIND
took 169 milliseconds
:BSEARCH
took 75 milliseconds
? (bench(vec 10000))
:FIND
took 1,640 milliseconds
:BSEARCH
took 98 milliseconds
2分探索はそれ専用のオーバーヘッドを伴うので、要素数が少ないうちは線形探索のほうが速かったりもしますが、要素数が増えるに従い速度差に開きが出てきています。 これは想定どおりの結果です。
SBCL
さて問題はSBCLです。
* (bench(vec 10))
:FIND
0.001 seconds
:BSEARCH
0.008 seconds
* (bench(vec 100))
:FIND
0.002 seconds
:BSEARCH
0.008 seconds
* (bench(vec 1000))
:FIND
0.001 seconds
:BSEARCH
0.011 seconds
* (bench(vec 10000))
:FIND
0.002 seconds
:BSEARCH
0.014 seconds
* (bench(vec 100000))
:FIND
0.001 seconds
:BSEARCH
0.018 seconds
* (bench(vec 1000000))
:FIND
0.001 seconds
:BSEARCH
0.027 seconds
驚くべきことにどれだけ要素数を増やしても線形探索に敵いません。 それどころかむしろ差が開いていく一方です。
Limitation
いろいろ試してみたところ、EQxxxファミリー以外の比較関数を指定したり、:keyパラメタを指定したりすると遅くなるようです。
Specifing :TEST
(defun bench(vector)
(let((size(length vector)))
(print :find)
(time(dotimes(x 10000)
(find (random size)vector :test #'=)))
(print :bsearch)
(time(dotimes(x 10000)
(bsearch (random size)vector :test #'=)))))
* (bench(vec 10))
:FIND
0.006 seconds
:BSEARCH
0.006 seconds
* (bench(vec 100))
:FIND
0.032 seconds
:BSEARCH
0.008 seconds
* (bench(vec 1000))
:FIND
0.291 seconds
:BSEARCH
0.018 seconds
* (bench(vec 10000))
:FIND
2.738 seconds
:BSEARCH
0.016 seconds
Specifying :KEY.
(defun bench(vector)
(let((size(length vector)))
(print :find)
(time(dotimes(x 10000)
(find (code-char(random size))vector :key #'code-char)))
(print :bsearch)
(time(dotimes(x 10000)
(bsearch (code-char(random size))vector :key #'code-char
:compare #'char<)))
))
* (bench(vec 10))
:FIND
0.007 seconds
:BSEARCH
0.006 seconds
* (bench(vec 100))
:FIND
0.030 seconds
:BSEARCH
0.008 seconds
* (bench(vec 1000))
:FIND
0.283 seconds
:BSEARCH
0.011 seconds
* (bench(vec 1000))
:FIND
1.858 seconds
:BSEARCH
0.007 seconds
Python is wise.
SBCL Evangelistのprkさんから情報をいただきました。 ありがとうございました!
findは(flushableなので)デッドコードとして除去されていると思います。
要するにFIND
の返り値を使っていないので、Pythonが「これ、計算しなくてもよくね?」と考えてコードを捨ててしまっているということのようです。
こちらにあるようにFIND
の返り値を使うようにするとちゃんと計算してくれるようになります。
:KEY
や:TEST
を指定すると計算されるようになるのは、与えられた関数に副作用があるかもしれず、デッドコードと判断できなくなるからではないかと思われます。
なお、FLUSHABLE
等の情報はDESCRIBE
に尋ねれば教えてもらうことができます。
Hashtable
さて、SBCLに於いて線形探索のほうが二分探索より速くなるという誤解は無事とけました。 が、探索問題といえばハッシュテーブルを無視するわけにはいきません。 以下のようにしてベンチを取り直してみました。
(defun bench2(size)
(let((vector(make-array size :initial-contents(loop :for i :below size :collect i)))
(ht(make-hash-table))
(nums(loop :repeat 10000 :collect (random size))))
(map nil (lambda(x)(setf(gethash x ht) x))vector)
#+sbcl(sb-ext:gc :full t)
(print :find)
(time(print(loop :for elt :in nums :sum (find elt vector))))
#+sbcl(sb-ext:gc :full t)
(print :gethash)
(time(print(loop :for elt :in nums :sum (gethash elt ht))))
#+sbcl(sb-ext:gc :full t)
(print :bsearch)
(time(print(loop :for elt :in nums :sum (bsearch elt vector))))))
* (bench2 100)
:FIND
494278
0.023 seconds
58,857,339 processor cycles
:GETHASH
494278
0.002 seconds
5,438,963 processor cycles
:BSEARCH
494278
0.019 seconds
43,818,473 processor cycles
* (bench2 1000)
:FIND
5002223
0.229 seconds
578,312,184 processor cycles
:GETHASH
5002223
0.003 seconds
7,386,944 processor cycles
:BSEARCH
5002223
0.010 seconds
25,415,090 processor cycles
* (bench2 10000)
:FIND
49536291
2.144 seconds
5,434,340,870 processor cycles
:GETHASH
49536291
0.002 seconds
3,484,944 processor cycles
:BSEARCH
49536291
0.006 seconds
16,313,313 processor cycles
SIZEを大きくするに従ってFIND
が遅くなっていくのは期待通りですが、ハッシュテーブルの速さが際立っています。
Conclusion
Common Lispに於いて二分探索のユーティリティが見当たらないのはハッシュテーブルが充分速いからとみて良さそうです。
:KEY
や:TEST
を柔軟に指定できるので二分探索に存在意義がないわけではないのですが、'(#\newline #\return #\linefeed #\tab #\space)
にマッチするかの述語WHITE-CHAR-P
みたいなのを作る場合はハッシュテーブルで実装したほうが良さそうです。
素人が正しい手順でとった出汁より、市販の出汁の素のほうが美味いというような結果になってしまいましたね。
Appendix
いろいろ試している最中、ローカル関数を使っているのがいけないのでは?と思い、別バージョンも書いてみました。
(defun bsearch2(item vector &key (key #'identity)(test #'eql)(start 0)(end (length vector)) (compare #'<)(default nil))
(declare (type fixnum start end)
(type function key test compare)
(dynamic-extent key test compare)
(type simple-vector vector))
(assert(<= 0 start end (length vector)))
(prog(center % index target elt)
REC
(multiple-value-setq(center %)(floor(- end start)2))
ON-THE-NODE
(setq index (+ center start))
(if(zerop center)
(go REACHED-LEAF)
(go CHECK-CONTENTS))
REACHED-LEAF
(when(zerop %)
(incf index))
(setq target (svref vector index)
elt (funcall key target))
(if (funcall test item elt)
(return (values target index))
(return (values default nil)))
CHECK-CONTENTS
(setq target(svref vector index)
elt(funcall key target))
(if (funcall test item elt)
(return(values target index))
(progn
(if(funcall compare item elt)
(setf end index)
(setf start index))
(go REC)))))
結論から言うと、SBCLでは関係ないようです。
INLINE
宣言が正しく機能しているようで、速度差は現れませんでした。
しかし、CCLでは有効なようです。
CCLはローカル関数のINLINE
化をしないようで、以下のように速くなりました。
(defun bench(vector)
(let((size(length vector)))
(print :find)
(time(dotimes(x 10000)
(find (code-char(random size))vector :key #'code-char)))
(print :bsearch)
(time(dotimes(x 10000)
(bsearch (code-char(random size))vector :key #'code-char
:compare #'char<)))
(print :bsearch2)
(time(dotimes(x 10000)
(bsearch2 (code-char(random size))vector :key #'code-char
:compare #'char<)))))
? (bench(vec 100))
:FIND
took 33 milliseconds
:BSEARCH
took 55 milliseconds
:BSEARCH2
took 26 milliseconds