轉職熱搜工作
您正在找數據分析師的工作,共計361筆職缺在等你,馬上去應徵吧!
-
生管管理師(數據分析)_觀音_RH5302
面議(經常性薪資達4萬元或以上) 40000元 桃園市觀音區 3~4年工作經驗1.產品市場大數據分析,提出具建議價值的input。 2.市場供需相關因子與指標分析,做為庫存備料與交期判斷依據。 3.原料周轉天數管控、備料準確率分析、庫存調度掌控縮短交期。展開 -
2.數據分析專員_桃園轉運中心
月薪 42000~44000元 桃園市大園區 工作經歷不拘1.現場作業空間、動線、流程、動作之規劃與SOP撰寫。 2.物流系統資料分析、協助業務專案推動。 3.對倉儲相關設備有概念並對新科技應用有熱情。 4.軟體自動化應用(VBA)。 5.規劃分析空間、動線、流程。 6.對改善相關專案進行可行性分析。 7.改善現場發現問題。 8.協助各現場作業改善提升效率。 9.推行軟、硬體自動化作業。 10.協助主管專案推行及主管交辦事項。展開 -
工研院產服中心_產業分析師_高雄(R100)
面議(經常性薪資達4萬元或以上) 40000元 高雄市新興區 1~2年工作經驗(1)市場調查及資料蒐集,提供決策支援; (2)撰寫深度產業研究報告; (3)客製化諮詢服務,助力企業提升競爭力; (4)團隊協作與溝通交流,維持優質服務。展開 -
資深會計暨財務分析師(Senior Accountant & Financial Analyst)
月薪 60000元 台中市北屯區 2~3年工作經驗1.財務分析與決策支援(核心職責): ▪ 分期產品利潤深度分析:分析毛利率、淨利率、壞帳率、資金成本等關鍵指標,提出改善利潤結構的建議。 ▪ 編制月/季/年營運績效報告,提供財務差異分析與前瞻洞察,作為營運決策依據。 ▪ 協助年度預算編制,進行各部門預算追蹤、預測(Forecast)與滾動調整。 ▪ 執行各項成本與費用效益(ROI)分析,提升資源配置效率。 2.會計專業與內部控制: ▪ 處理或覆核複雜帳務,特別是分期服務的應收帳款、壞帳準備、利息收入確認。 ▪ 建立/優化內控制度與會計 SOP,提高作業效率與降低風險。 ▪ 擔任查帳與稅務作業窗口,協助稅務規劃與資料彙整。 3.團隊協作與系統數據整合: ▪ 指導會計人員日常作業,確保帳務品質、稽核無誤。 ▪ 整合 ERP/電商平台/金流系統數據,確保財務資訊準確追蹤與應用。 4.主管交辦事項與跨部門合作: ▪ 協助支援跨部門財務資訊需求,提供建議與分析。 ▪ 依主管需求執行相關專案。 【加分條件】 ▪ 具備電商、金融科技 (FinTech)、分期付款或涉及大數據及複雜應收帳款管理經驗。 ▪ 熟悉 ERP 系統、金流系統或具財務模型建構能力(Excel/BI 工具)。 ▪ 有年度預算、財報分析、資金規劃或內控流程改善實務經驗。 ▪ 個人特質:邏輯強、高度數字敏感度、主動溝通、跨部門協作能力佳。 【其他說明】 本職位在公司發展策略中的價值: • 主導與提升電商分期服務的獲利結構,協助公司做出精準財務決策。 • 透過數據分析優化資源配置,提升整體營運效率。 • 強化財務內控與帳務正確性,確保企業在高速成長中的穩健度。 薪酬制度與獎勵: • 薪資 6 萬以上(依能力調整)。 • 具年終獎金、績效獎金制度。 工作時間/地點: • 上班地點:台中市北屯區文心路三段447號 (近文心中清捷運站,交通便利) 職涯發展: • 透明公平的考核制度。 • 可晉升為會計主管、財務主管、成本管理負責人,或發展成跨部門財務策略角色。 我們歡迎 ⭐️誠信正直 ⭐️積極熱忱 ⭐️勇於創新 的您,加入 Forwardmall! 【面試流程】 • 面試前測驗:Email 寄送財務邏輯與分析題組,需於面試前 3 天回傳。 • Interview 面談:部門主管 / HR展開 -
台灣電池中心-生產數據分析員(高雄) 2025NPI005
面議(經常性薪資達4萬元或以上) 40000元 高雄市大寮區 1~2年工作經驗1. 生產排班 2. 操作員工管理和規範工作 3. 生產計劃目標達成 5. 生產過程管理及質量管控 -
高階數據師(臺北市信義區/臺中市西區)(X)
月薪 52000~70000元 台中市西區 3~4年工作經驗1.需具有大型數據分析專案3年以上經驗 2.交通數據分析、資料庫開發管理 3.以統計、資訊及數學相關科系優先 4.熟悉工具與程式:R、SAS、PYTHON、MYSQL、MSSQL、HADOOP...等 5.此職務工作地點後續可視面談決定於 臺北市信義區 或 臺中市西區 其它說明:需出差、需外派展開 -
工研院產科國際所_都市規劃分析師(0K200)
面議(經常性薪資達4萬元或以上) 40000元 新竹縣竹東鎮 3~4年工作經驗您是否關注產業與城市的未來發展? 我們正尋找一位具備產業洞察與空間規劃專業的夥伴,加入我們,共同參與國內外園區規劃、推動區域與產業發展。透過與國內外政府、企業的深度合作,您將親自參與園區規劃、策略發想、產業群聚等多元專案,為臺灣乃至國際的產業發展貢獻專業影響力。 工作內容包含: 1.參與國內外園區規劃(含案例研析、發展策略、可行性評估等) 2.運用空間分析與地理資訊系統(GIS),進行區位與資源評估 3.撰寫分析報告、製作簡報呈現研究成果,並進行對外溝通 我們重視每一位夥伴的專業成長,提供彈性工時、進修補助及參與跨國專案的學習機會,讓您在累積實務經驗的同時,也拓展個人的策略視野。 #關於我們 工研院產業科技國際策略發展所(簡稱:產科國際所),是政府與產業均仰賴的智庫,結合產業研究與國際業務推動能量,以協助台灣產業布局全球市場為己任,以『促進台灣產業科技創新與價值提升』為願景。 旗下經營的IEK產業情報網已超過15年歷史,是國內產業情報資料庫的領導品牌。 IEK產業情報網:http://ieknet.iek.org.tw/展開 -
化學分析師(醫藥產業服務-微生物試驗)
月薪 36000元 新北市五股區 1~2年工作經驗【非SGS不可的原因】 SGS是全台灣最大的測試、檢驗、驗證服務公司。於全台灣擁有逾3,000名專業人員, 20個以上多元化之實驗室。健康與營養事業群, 作為食品檢驗領域之台灣領導地位, 我們的服務產業包含一般食品、健康食品、農產品、化粧品、醫療器材、藥品等,協助提供企業單一或多元的解決方案, 協助台灣產業持續優化, 擁有高品質和永續經營的文化。 【團隊工作你將參與】 1. 微生物試驗、細胞試驗、生化試驗等等檢驗分析且, 並進行數據整理。 2. 協助開發新檢驗方法。 3. 維持或管理實驗室ISO/IEC 17025、GLP等相關品質文件。 4. 實驗室內外部稽核與評鑑活動。 5. 藥品、耗材的採購與庫存管理以及實驗室相關的儀器設備管理。 6. 流式細胞儀、滅菌釜、ELISA reader、 分光光度計、RT-PCR等儀器操作。 【化學分析師必備】 1.食品、微生物、生命科學、生物科技、農業等相關科系畢業。 2. 有基本無菌操作觀念、微生物培養、細胞培養等相關實驗經驗者尤佳。展開 -
系統分析師(D3)【全家便利商店關係企業】
面議(經常性薪資達4萬元或以上) 40000元 台北市中山區 2~3年工作經驗精藤公司為【全家便利商店股份有限公司】之子公司,精藤做為集團資訊整合的中心,不但承擔著集團「系統整合」及「Know-How彙整」的責任,同時也扮演了集團最堅強的技術發展領航者及實踐者。 而支援這團隊成長的背後,除了穩定成長的零售通路資訊發展需求以外,亦包含了精藤20多年來不斷精進的程式開發技術以及重視團隊合作的組織文化。 在精藤,除了可以學習各項資訊系統規劃、開發、監控與維護(如:物流管理系統、帳務管理系統、商品管理系統,與情報分析系統......等數以百計的資訊系統,精藤皆自行開發與維護),更有完善的公司治理與開發標準,可做為所有資訊人員執行專案時的後盾。 除此之外,精藤近年來亦不斷追求更多新領域的發展,例如:雲端科技應用、大數據資料分析以及行動裝置管理技術等等,誠摯的歡迎所有對於零售流通有興趣的伙伴一同加入精藤的大家庭。 本公司系統分析師之職務內容如下: 1.客戶需求分析 2.系統架構規劃與操作流程設計 3.系統日常維護 4.客戶問題排除 此職缺需熟悉C#、.NET,並具備資料庫運作基本概念,若您對於相關技術不夠熟悉,本公司亦具備有完善的教育訓練制度可以協助大家提升自我能力,並共同為全家集團盡一份心力。展開 -
資深數據工程師 Senior Data Engineer/Data Architect (Data Science & AI Team)
面議(經常性薪資達4萬元或以上) 40000元 新北市土城區 工作經歷不拘<About the job> As the Senior Data Engineer or Data Architect, you‘ll join the various advanced Data Science & AI Projects in the corporate headquarters. As well as developing intelligent applications via related AI and Big Data Analytics Technology for digital transformation, you will have plenty of opportunities to develop emerging applications based on different use cases and expand your tech skillset in this world-class company (Fortune Global 500, 20th). <Job Description> *Type 1:Senior Data Engineer Responsible for acquiring data using API, Web scraping, or other data accessing protocol/scripting and developing the ETL data pipelines, and the data aggregation systems. Using software development experience to design and build high-performance automated systems. As below: 1. Data Processing (1)Data ETL(Extracting/Transforming/Loading) process engineering and querying from relational data management(such as SQL Script). (2)Building systematic data quality processes and checks to ensure data quality and accuracy. (3)Solid coding experience in Python or Java. 2. Data Pipeline Development (1)Develops a data integration process, including creating scalable data pipelines and building out data services/data APIs. (2)Create a data processing automation and monitoring mechanism by optimizing the data pipeline process. (3)Experience with dataflow/workflow/management tools, such as Apache Nifi, Apache Airflow, Azkaban, etc., is preferred. 3. Data Crawling (1)Build scalable tools that automate web crawling, scraping, and data aggregation from various web pages using frameworks such as Scrapy. (2)Accessing data from REST APIs, particularly in parsing data in disparate formats such as JSON and XML, and developing automated engineering. (3) (Nice to Have) Knowledge of server-based front-end/UI technologies, including Vue/React and HTML/CSS, is preferred. *Type 2:Data Architect Responsible for designing, implementing, and maintaining scalable and reusable system architectures/data architectures for complex data structures and large data in data science and AI projects. As below: 1. Data Schema Design (1)Collaborate with the team to design DB/Table Schema and Data Schema. (2)Consolidate the requirements and use data engineering tech to design and implement a robust Data Mart. (3)Experience handling all kinds of structured/semi-structured/unstructured data and streaming data is preferred. (4)Hands-on experience with Dimensional Data Modeling(Column-based data warehouse) or NoSQL Schema design. 2. Data Platform Architecture (1)Design and build data infrastructure/platform components to support complex data pipelines ingesting various data from multiple internal and external data sources and processing. (2)Familiar with Big Data frameworks and processing technologies, ex: Hadoop, Apache Spark, NoSQL ...etc. (3)Familiar with AZURE or AWS cloud data services(hands-on experience with cloud infrastructure will be a plus) (4)Familiarity with the Linux OS environment, the Shell Scripting, and infrastructure knowledge. (5)(Nice to Have)Experience with declarative infrastructure/container technologies, such as Docker and Kubernetes (k8s/k3s). (Nice to Have).展開
