<div dir="ltr">All,<div><br></div><div>Someone reached out to me about a short term contract in the Columbus area. I'm not available, and not really a big data/Spark person anyway.</div><div><br></div><div>If you are interested, get back to me and I'll make the intros.</div><div><br></div><div><p style="font-size:12.8px;margin-right:0in;margin-left:0in;font-family:"times new roman",serif"><span style="font-family:arial,sans-serif;color:black">Person needs to be a python developer and be familiar with Big Data and map/Reduce technologies. PySpark background would be a plus. This resource will be taking data from 3rd parties and ingesting and aggregating data to level’s in which the business requires.<u></u><u></u></span></p><ul type="disc" style="font-size:12.8px;margin-bottom:0in"><li class="MsoNormal" style="margin-left:15px;color:black">5+ years in python<u></u><u></u></li><li class="MsoNormal" style="margin-left:15px;color:black">Worked with a data lake<u></u><u></u></li><li class="MsoNormal" style="margin-left:15px;color:black">5+ years with Bash/ksh/sh Scripting<u></u><u></u></li><li class="MsoNormal" style="margin-left:15px;color:black">Experience with Spark (pyspark)<u></u><u></u></li><li class="MsoNormal" style="margin-left:15px;color:black">Explored potentially using Luigi (a powerful open library used to build pipelines)<u></u><u></u></li><li class="MsoNormal" style="margin-left:15px;color:black">Experience with a python based automated runbook to aid with testing the data pipeline<u></u><u></u></li><li class="MsoNormal" style="margin-left:15px;color:black">Experience with using python with bash scripting to munge/wrangle log data and generate excel formatted reports<u></u><u></u></li><li class="MsoNormal" style="margin-left:15px;color:black">Worked on a proof of concept involving py2neo, Neo4j and Flask</li></ul></div></div>