<div dir="ltr"><div class="gmail_extra"><div class="gmail_quote">On Tue, May 23, 2017 at 10:51 AM, Hideki Kato <span dir="ltr"><<a href="mailto:hideki_katoh@ybb.ne.jp" target="_blank">hideki_katoh@ybb.ne.jp</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Agree.<br>
<br>
(1) To solve L&D, some search is necessary in practice.  So, the<br>
value net cannot solve some of them.<br>
(2) The number of possible positions (input of the value net) in<br>
real games is at least 10^30 (10^170 in theory).  If the value<br>
net can recognize all?  L&Ds depend on very small difference of<br>
the placement of stones or liberties.  Can we provide necessary<br>
amount of training data?  Have the network enough capacity?<br>
The answer is almost obvious by the theory of function<br>
approximation.  (ANN is just a non-linear function<br>
approximator.)<br></blockquote><div><br></div><div>A similar argument can be made for natural neural nets, but we know humans are able to come up with reasonable solutions. I suppose a pure neural net approach would require some form of recursion, but when combined with a search, and rolling out the decision process to some sufficiently high number of max steps, apparently it's not that important.. Also, I suspect that nearly all positions can only be reached in real games by inferior moves from both sides. All that may be needed is some crude means to steer away from chaos (and even if one would start in chaos, humans probably wouldn't do well either).</div><div> </div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
(3) CNN cannot learn exclusive-or function due to the ReLU<br>
activation function, instead of traditional sigmoid (tangent<br>
hyperbolic).  CNN is good at approximating continuous (analog)<br>
functions but Boolean (digital) ones.<br></blockquote><div><br></div><div><br class="gmail-Apple-interchange-newline">Are you sure about that? I can imagine using two ReLU units to construct a sigmoid-like step function, so I'd think a multi-layer net should be fine (just like with ordinary perceptrons).</div><div><br></div><div>Best,</div><div>Erik</div><div><br></div></div></div></div>