熱愛生活,永遠保持年輕的心,work-life balance是我的目標,同時也熱愛並享受著寫程式以及解決問題後的成就感。堅強的心理素質和與不畏懼挑戰是我的優勢,遇到任何懷疑顧慮時與當事人溝通釐清是我處事未知事務的態度。期望透過數據更了解這個世界,也希望能透過數據讓每件事情的運作更有效率,因此目標成為一個能夠用數據思考、解決問題的數據分析師/科學家。
期望未來永遠不停止學習,生於憂患,死於安樂
1. ETL工具 (AirFlow)
2. Pandas、Numpy、MultipleProcess
3. Selenium、 Scrapy、Requests
4. 資料結構以及演算法(DP, DFS, BFS, Tree, Binary Search)
5. SkIean、NLTK
6. Google API串接
1. MySQL、Google cloud BigQuery
2. SELECT, INSERT, CREAT, UPDATE, DELETE
1. 操作Tableau產生數據圖表
2. Matplotlib、Plotly、Seaborn進行資料視覺化
3. 數據視覺化報告呈現
AWS
1. EC2(Ubuntu)
2. MWAA (Airflow ETL)
3. Athena、RDS、Lambda、S3
GCP
1. cloud function
證照網址: https://www.credly.com/badges/9c02c392-3936-4e98-be40-7dc2ea44844e/linked_in_profile
證照編號: NVMSBCS282EQQP5V
1. 擁有運算、聯網、儲存和資料庫等 AWS 服務,以及 AWS 部署和管理服務方面的知識和技能
2. 在 AWS 上部署、管理和操作工作負載,以及實作安全控制和合規要求的知識和技能
3. 使用 AWS 管理主控台和 AWS Command Line Interface (AWS CLI) 的知識和技能。了解 AWS Well-Architected Framework、AWS 聯網、安全服務和 AWS 全球基礎設施
4. 有能力識別哪些 AWS 服務符合特定技術需求,並為 AWS 應用程式定義技術要求
於Coursera進行全英文數據分析課程,並完Final Cast Study 課程內容主要為以下: 1. Ask Questions to Make Data-Driven Decisions
2. Process Data from Dirty to Clean with SQL and spreadsheets
3. Data Visualization through Tableau and spreadsheets
4. Data Analysis with R Programming
1. 使用Python 串接google API, Pandas數據分析, 建置Airflow (ETL)
2. 網站爬蟲(Selenium, BS4, Scrapy)
3. MySQL資料庫(Select, Insert, Update, Deleted, Create)
4. AWS雲端服務(code commit, EC2, S3, RDS, MWAA)
5. Unix-like (Ubunto, MacOS, Linux) commands
6. Tableau 商業分析、數據視覺化
7. GitHub版控指令
1. 使用Python, IPA進行Single cell sequencing data分析
2. Western blot, ELISA, qPCR, Cell Culture(primary, cell line)
3. 收取血液檢體操作PMA stimulated Netosis
4. 實驗室庶務(配藥、報帳、實驗動物管理、文獻探討)
1. 儀器試劑銷售,年度業績達成率為146%
2. 陌生客戶開發(科研單位、生技公司、醫療院所)。
3. 幫忙解決客戶產品問題與處理客訴。
4. 新/舊客戶拜訪
簡介:工作中使用requests 或selenium爬取網站的商品資料,使用Pandas進行資料清洗提供給需求者,並梳理成可維護的程式碼。
平台工具:Python 3.9, Pandas
簡介:為了更瞭解Machine Learning,從讀取檔案到建立模型和訓練,不使用套件實作一個Logistic regression model。
平台工具:使用Python3.9,輸入一串英文句子,會判定是否為好/壞評價,並且輸出每個token所佔的權重。
熱愛生活,永遠保持年輕的心,work-life balance是我的目標,同時也熱愛並享受著寫程式以及解決問題後的成就感。堅強的心理素質和與不畏懼挑戰是我的優勢,遇到任何懷疑顧慮時與當事人溝通釐清是我處事未知事務的態度。期望透過數據更了解這個世界,也希望能透過數據讓每件事情的運作更有效率,因此目標成為一個能夠用數據思考、解決問題的數據分析師/科學家。
期望未來永遠不停止學習,生於憂患,死於安樂
1. ETL工具 (AirFlow)
2. Pandas、Numpy、MultipleProcess
3. Selenium、 Scrapy、Requests
4. 資料結構以及演算法(DP, DFS, BFS, Tree, Binary Search)
5. SkIean、NLTK
6. Google API串接
1. MySQL、Google cloud BigQuery
2. SELECT, INSERT, CREAT, UPDATE, DELETE
1. 操作Tableau產生數據圖表
2. Matplotlib、Plotly、Seaborn進行資料視覺化
3. 數據視覺化報告呈現
AWS
1. EC2(Ubuntu)
2. MWAA (Airflow ETL)
3. Athena、RDS、Lambda、S3
GCP
1. cloud function
證照網址: https://www.credly.com/badges/9c02c392-3936-4e98-be40-7dc2ea44844e/linked_in_profile
證照編號: NVMSBCS282EQQP5V
1. 擁有運算、聯網、儲存和資料庫等 AWS 服務,以及 AWS 部署和管理服務方面的知識和技能
2. 在 AWS 上部署、管理和操作工作負載,以及實作安全控制和合規要求的知識和技能
3. 使用 AWS 管理主控台和 AWS Command Line Interface (AWS CLI) 的知識和技能。了解 AWS Well-Architected Framework、AWS 聯網、安全服務和 AWS 全球基礎設施
4. 有能力識別哪些 AWS 服務符合特定技術需求,並為 AWS 應用程式定義技術要求
於Coursera進行全英文數據分析課程,並完Final Cast Study 課程內容主要為以下: 1. Ask Questions to Make Data-Driven Decisions
2. Process Data from Dirty to Clean with SQL and spreadsheets
3. Data Visualization through Tableau and spreadsheets
4. Data Analysis with R Programming
1. 使用Python 串接google API, Pandas數據分析, 建置Airflow (ETL)
2. 網站爬蟲(Selenium, BS4, Scrapy)
3. MySQL資料庫(Select, Insert, Update, Deleted, Create)
4. AWS雲端服務(code commit, EC2, S3, RDS, MWAA)
5. Unix-like (Ubunto, MacOS, Linux) commands
6. Tableau 商業分析、數據視覺化
7. GitHub版控指令
1. 使用Python, IPA進行Single cell sequencing data分析
2. Western blot, ELISA, qPCR, Cell Culture(primary, cell line)
3. 收取血液檢體操作PMA stimulated Netosis
4. 實驗室庶務(配藥、報帳、實驗動物管理、文獻探討)
1. 儀器試劑銷售,年度業績達成率為146%
2. 陌生客戶開發(科研單位、生技公司、醫療院所)。
3. 幫忙解決客戶產品問題與處理客訴。
4. 新/舊客戶拜訪
簡介:工作中使用requests 或selenium爬取網站的商品資料,使用Pandas進行資料清洗提供給需求者,並梳理成可維護的程式碼。
平台工具:Python 3.9, Pandas
簡介:為了更瞭解Machine Learning,從讀取檔案到建立模型和訓練,不使用套件實作一個Logistic regression model。
平台工具:使用Python3.9,輸入一串英文句子,會判定是否為好/壞評價,並且輸出每個token所佔的權重。