On Sat, Jul 17, 2010 at 1:08 PM, Les <span dir="ltr">&lt;<a href="mailto:hlhowell@pacbell.net">hlhowell@pacbell.net</a>&gt;</span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
<div><div></div><div class="h5"><br>
</div></div>But unfortunately, Robert, networks are inherently low bandwidth.  To<br>
achieve full throughput you still need parallelism in the networks<br>
themselves.  I think from your description, you are discussing the fluid<br>
models which are generally deconstructed to finite series over limited<br>
areas for computation with established boundary conditions.  This<br>
partitioning permits the distributed processing approach, but suffers at<br>
the boundaries where either the boundary crossing phenomena are<br>
discounted, or simulated, or I guess passed via some coding algorithm to<br>
permit recursive reduction for some number of iterations.<br>
<br>
What your field, and most others related to fluid dynamics, such as<br>
plasma studies, explosion studies and so on, needs is full wide band<br>
memory access across thousands of processors (millions perhaps?).<br>
</blockquote><div><br></div><div>&lt;big snip of insightful comments&gt; </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"> </blockquote><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">

<br>
        I am a test applications consultant.  My trade forces me to<br>
continuously update my skills and try to keep up with the multitude of<br>
new architectures.  I have almost no free time, as researching new<br>
architectures, designing new algorithms, understanding the application<br>
of algorithms to new tests, and hardware design requirements eats up<br>
many hours every day. Fortunately I am and always have been a NERD and<br>
proud of it.  I work at it.<br>
<br>
Since you have a deep knowledge of your requirements, perhaps you should<br>
put some time into thinking of a design methodology other than those I<br>
have mentioned or those that you know, in an attempt to improve the<br>
science.  I am sure many others would be very appreciative, and quite<br>
likely supportive.<br>
<br></blockquote><div>I&#39;m suspicious of the claimed narrowness of your credentials, because you have gotten so many things right. ;-)</div><div><br></div><div>Someone who *really* knows what he&#39;s talking about in this problem area might be inclined to say, &quot;This guy Myers is an idiot, because what he apparently wants to do was shown not to be possible decades ago.&quot;</div>
<div><br></div><div>Nature, not hardware budgets, dictates the range of scales and the volume of data that needs to be dealt with, and you are correct (if perhaps on the low side) as to the scale of resources that would be required for a head-on assault against some really important problems (hurricane prediction, for example, or meaningful climate prediction).  There is no conceivable way that such a head-on assault could ever be mounted with any hardware that I know of that anyone has ever imagined.</div>
<div><br></div><div>What *can* be done that no one seems interested in doing is to explore how the effects I have described (computational artifacts resulting from accommodating the problem to the available hardware, as you apparently understand) exhibit themselves at attainable ratios of scales.  Every lab director knows that, important though such knowledge might be, the mere fact that the potential importance of said knowledge is so hard to describe to a layman means that significant funding will never be forthcoming.  Even worse, you might do an expensive and insightful exploration only to fail to discover anything that can be applied to &quot;real world&quot; modeling (a null result).</div>
<div><br></div><div>When you sink a lot of money into a huge new particle accelerator, there is always the possibility that you will discover nothing new that is interesting.  What&#39;s different is that huge particle accelerators capture the public imagination in a way that the grubby details of computational physics, no matter how fundamental, never will.  A bigger particle accelerator, if nothing else, allows you to estimate new bounds for as yet undetected phenomena.  The bigger computers we keep building only push the problem I have described more deeply into the mud.</div>
<div><br></div><div>I have talked to computer architects as to what is conceivably possible.  What I need to do right now is computation that will allow me to show people what I&#39;m talking about, rather than asking them to imagine it, even though it is all very clear to me.</div>
<div><br></div><div>A closely-related question--how important are collective, nonlocal, and nonlinear phenomena in neurobiology, and how much global bandwidth do they imply?-- may eventually push the computational frontier that I see as being ignored.</div>
<div><br></div><div>Robert.</div></div>