<div dir="auto">Hi Numpy dev community,<div dir="auto"><br></div><div dir="auto"><div style="font-family:sans-serif;font-size:12.8px" dir="auto"><div style="width:328px;margin:16px 0px"><div><div dir="ltr"><div>I'm keyvis, a statistical data scientist.</div><div><br></div><div>I'm currently using numpy in python 3.8.2 64-bit for a clustering problem, on a machine with 1.9 TB RAM. When I try using np.zeros to create a 600,000 by 600,000 matrix of dtype=np.float32 it says<br></div><div>"Unable to allocate 1.31 TiB for an array with shape (600000, 600000) and data type float32"</div><div><br></div><div>I used psutils to determine how much RAM python thinks it has access to and it return with 1.8 TB approx.<br></div><div><br></div><div>Is there some way I can fix numpy to create these large arrays?</div></div></div></div><div style="height:0px"></div></div>Thanks for your time and consideration</div></div>