<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Mon, May 22, 2017 at 11:27 AM, Erik van der Werf <span dir="ltr"><<a href="mailto:erikvanderwerf@gmail.com" target="_blank">erikvanderwerf@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Mon, May 22, 2017 at 10:08 AM, Gian-Carlo Pascutto <span dir="ltr"><<a href="mailto:gcp@sjeng.org" target="_blank">gcp@sjeng.org</a>></span> wrote:<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">... This heavy pruning<span class="gmail-"><br>
by the policy network OTOH seems to be an issue for me. My program has<br>
big tactical holes.</span></blockquote><div><br></div><div>Do you do any hard pruning? My engines (Steenvreter,Magog) always had a move predictor (a.k.a. policy net), but I never saw the need to do hard pruning. Steenvreter uses the predictions to set priors, and it is very selective, but with infinite simulations eventually all potentially relevant moves will get sampled.</div><span class="gmail-HOEnZb"><font color="#888888"><div><br></div></font></span></div></div></div></blockquote><div><br></div><div>Oh, haha, after reading Brian's post I guess I misunderstood :-)</div><div><br></div><div>Anyway, LMR seems like a good idea, but last time I tried it (in Migos) it did not help. In Magog I had some good results with fractional depth reductions (like in Realization Probability Search), but it's a long time ago and the engines were much weaker then...</div><div><br></div><div><br></div><div><br></div></div></div></div>