做緊data analyst 同data management
用 big data tools, Hadoop spark
專注spark performance tuning
呢個field勉強做到高登仔要求
因為幫推LIHKG,所以有咩想問可以任問
好唔好景?
小弟撈緊BI 但主要用etl, cognos做野
好似就到樽頸位
Big data tools 我用緊既全部open source 野,難入行,比教窄,但有skill set既,人工ok
仲讀緊書
岩岩in 完一間細既app公司
Programming唔係話勁叻但都叫寫到下app
佢開$45/h點睇
冇開你最低工資
算俾面
開公司名
永久blacklist
係uniqlo企係度賣衫都做到$50/hr既時候
麻煩開公司名
真係去到25k咩
有無考左CISSP or CISA 既巴打?我想考個CISA (自問tech 唔叻,寫唔到code,吹水野叫做過到骨),有無巴打可以share 下經驗同搵邊間去學?
一次過答曬你地d問題
首先要知道咩叫big data, 主要指……
另外有巴打問power centre既tutorial,網上大把自己搵,power centre好容易用
power centre來自於informatica
呢間公司哩幾年全球grow得好撚快睇返gartner 系data management呢行既leading company來
識用d tool都無死,因為好多大公司買左
一次過答曬你地d問題
首先要知道咩叫big data, 主要指……
另外有巴打問power centre既tutorial,網上大把自己搵,power centre好容易用
power centre來自於informatica
呢間公司哩幾年全球grow得好撚快睇返gartner 系data management呢行既leading company來
識用d tool都無死,因為好多大公司買左
巴打我都用緊hadoop+spark去analyze d log files……
咁我用regex去parse d content做一個個field啦
但當我input一d比較大/某d field有特別多data 既log files個陣
我create完dataframe再用sql 去select一x field個陣會pop timeout error既? 佢好似卡左係fetch table個度 係咪因為d salve worker既memory唔夠?
新手求救
一次過答曬你地d問題
首先要知道咩叫big data, 主要指……
另外有巴打問power centre既tutorial,網上大把自己搵,power centre好容易用
power centre來自於informatica
呢間公司哩幾年全球grow得好撚快睇返gartner 系data management呢行既leading company來
識用d tool都無死,因為好多大公司買左
巴打我都用緊hadoop+spark去analyze d log files……
咁我用regex去parse d content做一個個field啦
但當我input一d比較大/某d field有特別多data 既log files個陣
我create完dataframe再用sql 去select一x field個陣會pop timeout error既? 佢好似卡左係fetch table個度 係咪因為d salve worker既memory唔夠?
新手求救
唔好玩我啦
Hadoop + spark 死job可以有好多原因
最基本可以係你個regex parse 已經錯
Timeout 又有好多種,係spark 入面有得較長啲
Memory唔夠可以係container memory 唔夠,leak左data 落disk
Slave worker memory 唔夠既,個job會pending左係度
結論係如果無睇過啲code同咪啲data 答唔到你
上stack overflow 開topic問
上年Grad, 做web 年頭入職 13K 無人工加無福利, 下年係咪應該搵定
IVE IT留明
唉讀到想死
畢業做狗
<blockquote><blockquote><blockquote>一次過答曬你地d問題
首先要知道咩叫big data, 主要指……
另外有巴打問power centre既tutorial,網上大把自己搵,power centre好容易用
power centre來自於informatica
呢間公司哩幾年全球grow得好撚快睇返gartner 系data management呢行既leading company來
識用d tool都無死,因為好多大公司買左</blockquote>
巴打我都用緊hadoop+spark去analyze d log files……
咁我用regex去parse d content做一個個field啦
但當我input一d比較大/某d field有特別多data 既log files個陣
我create完dataframe再用sql 去select一x field個陣會pop timeout error既? 佢好似卡左係fetch table個度 係咪因為d salve worker既memory唔夠?
新手求救</blockquote>
唔好玩我啦
Hadoop + spark 死job可以有好多原因
最基本可以係你個regex parse 已經錯
Timeout 又有好多種,係spark 入面有得較長啲
Memory唔夠可以係container memory 唔夠,leak左data 落disk
Slave worker memory 唔夠既,個job會pending左係度
結論係如果無睇過啲code同咪啲data 答唔到你
上stack overflow 開topic問</blockquote>
巴打有前途 依家d公司開始搶big data人
IT 狗 FG, 15k
7月中開工,年尾唔加10% 一定走人