<div dir="ltr">Hi All,<div><br></div><div>This is a somewhat broad question but I wonder if anyone in the Igor community has been routinely working with large volumes of data in Igor.  I am mostly concerned with speeding up processes in situations involving large numbers of waves or traces.</div><div><br></div><div>The type of scenario I am speaking about is working with 50000 waves or having 10000 traces in a graph.  My previous experience was working with maybe 100x less objects.  As I scaled-up the amount of data to analyze, I realized a lot of my routines and the visualization tools were starting to lag.  I have gone through some O-notation analysis as well as the function profiler but reach the end of my current programming knowledge.</div><div><br></div><div>I realize the solution might mean shifting to a different tool altogether (Python-based or MatLab) or maybe PC hardware improvements (I am on Igor Pro 8 with a Win10/16GB RAM/Intel Core i7).  However, I have a feeling that there may be better ways of working in Igor that I am not yet aware.</div><div><br></div><div>Any tips or resources would be great!</div><div><br></div><div>Regards,</div><div><br></div><div>Albert</div></div>