<div dir="ltr">Dear community,<div><br></div><div>When I am calling the `sklearn.cluster.DBSCAN` function, I found it may result in huge memory costs... I am trying to reduce the computation cost by having my input data type as np.float16 and using "precomputed" as my metric. But I found that it still uses float64 (as it returns me with some errors like float64 computation leads to memory allocation failure) during computation when `fit_predict` is called. All suggestions for reducing computation costs are highly appreciated. Thanks.<br clear="all"><div><br></div><div><br></div><div>All the best,</div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">Mingzhe HU<div>Columbia University in the City of New York<br><div>M.S. in Electrical Engineering</div><div><a href="mailto:mh4116@columbia.edu" target="_blank">mingzhe.hu@columbia.edu</a></div></div></div></div></div><img width="0" height="0" class="mailtrack-img" alt="" style="display:flex" src="https://mailtrack.io/trace/mail/0e00122f18dc84447a66a4df0bfb80f952e4559d.png?u=8097932"></div>