轉職熱搜工作
您正在找資料庫管理人員的工作,共計1525筆職缺在等你,馬上去應徵吧!
-
房仲營業員、業務人員
月薪 30000元 南投縣草屯鎮 工作經歷不拘公司連結:https://www.facebook.com/tw.house168/ 💼【房仲營業員、業務人員】等你加入! 喜歡挑戰,熱愛與人交流?這裡就是發揮潛力的最佳舞台!✨ 🌟 工作內容: 1. 負責房地產物件銷售,包括住宅、商用和投資型物件,達成銷售目標。 2. 開發潛在客戶並維繫既有客戶關係,提供專業的房地產服務和解決方案。 3. 協助客戶進行房地產交易,包括物件介紹、議價談判及簽署合約流程。 4. 掌握房地產市場趨勢,定期進行市場分析並提供投資建議。 5. 熟悉房地產相關法規與政策,確保所有交易符合法規要求並具法律保障。 6. 管理和維護房地產資料庫,熟悉房地產管理軟體與相關工具的應用。 7. 撰寫及處理合約文件,確保交易檔案的準確性與完整性。 🏡 無論你是團隊的領導者,銷售一線的高手,或是運籌帷幄的助力,我們都歡迎! 準備好和我們一起打造不動產的精彩未來了嗎?快來加入!🚀展開 -
軟體開發電儀設計員(基層人員)
年薪 600000元 台北市內湖區 工作經歷不拘職務類別:軟體開發電儀設計員 (基層人員) 科系要求:電機/電子/資訊等相關工程科系 語文條件:英文外語能力具相關能力證明者(托福、雅思、全民英檢等)尤佳 相關經驗:不拘(具電儀工程設計經驗者尤佳) 電腦技能/證照:SQL資料庫及程式語言(C#、C++)開發基礎 專業技能/證照:不拘 出差外派:視工作任務出差,可接受國內調派或派外 上班時段:日班 休假制度:依公司規定 工作內容: 電儀工程設計: 委託內容確認、軟硬體需求檢討、軟體開發設計、硬體請購、系統安裝測試展開 -
御手國醫集團 御立方室裝建材部 行政人員
月薪 29500~30000元 台南市永康區 1~2年工作經驗1.處理文書資料處理及歸檔工作 2.維護、更新、管理各類文件檔案和資料庫系統 3.有室裝或建材公司或相關產業行政人員經驗者佳,經驗豐富者條件另談 4.其他主管交辦事項展開 -
7A61-醫事室住院組 事務員(疾病分類人員)【需考醫學術語及實作】
月薪 31000~40000元 新竹縣竹北市 1~2年工作經驗【需考醫學術語及實作】 1.辦理疾病分類相關業務。 2.年報製作,資料庫統計分析。 3.支援健保申報相關業務。 4.公文處理、文書處理及其它主管臨時交辦事項。展開 -
資訊工程師(MIS工程師/專員)
月薪 36000~40000元 彰化縣花壇鄉 1~2年工作經驗1.公司電腦、伺服器、網路、防火牆、VPN等設備維護與管理。 2.使用者端電腦、印表機、標籤機等週邊設備安裝維護與故障排除。 3.Windows/Linux Server、Mail、DNS、ERP、NAS等系統建置與維護。 4.資料庫管理與備份作業,含SQL應用與權限控管。 5.ERP、MES系統導入、維護與操作支援。 6.配合資訊安全政策,執行防毒、防駭與異常排除。 7.協助建立資訊操作文件、教育訓練與技術支援。 8.主管交辦事項。 職務需求 學歷:資訊工程、資訊管理或相關科系,專科以上。 待遇 月薪 36,000 ~ 40,000 元(依公司規範與經驗調整)展開 -
技術輔導員助理(短期人力)-資料處理中心
月薪 28590元 台北市文山區 工作經歷不拘職務期間:114/11/01-115/04/30 1. 中文打字速度 50字以上。 2. 略懂英文。 3. 完成交代事項。 4. 登打資料鍵檔經驗。 5. 良民證和個人信用憑證展開 -
軟體工程師
月薪 30000~50000元 桃園市蘆竹區 工作經歷不拘1.協同軟體架構之規劃及設計 2.軟體需求分析、設計及程式撰寫 3.軟體測試及修改 4.撰寫使用手冊 5.軟體新技術及工具的研發、測試、驗證及應用 6.Linux、Windows架設及資料庫維護展開 -
【全球智慧製造】資料工程師(Data Lakehouse)
面議(經常性薪資達4萬元或以上) 40000元 新北市新店區 工作經歷不拘【全球智慧製造】 你知道Garmin的智慧工廠嗎? 你知道火星上出現過Garmin的產品嗎? 你知道飛行員總是配戴Garmin的手錶上天空嗎? 全球智慧製造服務計畫(GSMS)透過AI、機構、電控、資料科學、IoT、大數據等技術,將智慧製造系統,即時控制與調整全球生產系統,且在地化支援亞洲、美洲、歐洲多個國家 如果你想體驗不同的文化,綻放自己的光芒! 現在就投遞履歷,讓我們見識你的獨特潛力! 【Introduction】 With increasing velocities, varieties and complexity of data at Process Integration (PI), the PI Data Engineering Team becomes the important role supporting existed or new projects using big data techniques to manipulate large streaming/batch dataset with various format on highly efficient way. 【Responsibilities】 -Develop and Maintain data streaming pipelines/ETL batch services on Hadoop and Spark eco-systems supporting data analysis dashboard such as smart factory dashboard, war room...etc -Ingesting data from different sources to data middle office platform such as Kafka and HDFS/HIVE. -Data warehouse dimensional modeling and developing and optimizing complex SQL queries for applications. -Design and implement scalable, high performance and low latency Web service/RESTful APIs. -Cross-functional collaboration with domain experts(PE) and data scientists(DS) in Garmin 【Requirements】 -Experience in Git/SVN or other version control tools -Familar with at least one programming language like Scala/Java/Python -Experience in ER modeling/data modeling for both OLTP and OLAP databases on data warehouse, data lake, and enterprise big data platforms. -Strong interest in big data platform and related open source like Spark, Redis, Kafka, ELK -Willing to further discuss with data user to know their truly intention and requirement -Be positive, data loving and interested in growing into more senior data engineer展開 -
【全球智慧製造】資料工程師(Data Self-service Enable)
面議(經常性薪資達4萬元或以上) 40000元 新北市新店區 工作經歷不拘【全球智慧製造】 你知道Garmin的智慧工廠嗎? 你知道火星上出現過Garmin的產品嗎? 你知道飛行員總是配戴Garmin的手錶上天空嗎? 全球智慧製造服務計畫(GSMS)透過AI、機構、電控、資料科學、IoT、大數據等技術,將智慧製造系統,即時控制與調整全球生產系統,且在地化支援亞洲、美洲、歐洲多個國家 如果你想體驗不同的文化,綻放自己的光芒! 現在就投遞履歷,讓我們見識你的獨特潛力! 【Introduction】 With increasing velocities, varieties and complexity of data at Process Integration (PI), the PI Data Engineering Team becomes the important role supporting existed or new projects using big data techniques to manipulate large streaming/batch dataset with various format on highly efficient way. 【Responsibilities】 -User Training and Support: Assist in preparing tutorials for data platform features, including basic operations and SQL queries. Provide basic technical support to users, helping resolve daily data access issues. -Documentation and Resource Management: Help draft and update user manuals and FAQs for the data platform. Support the organization and maintenance of internal knowledge resources. -Promotion Activities: Planning and executing promotional activities for the data platform (e.g., workshops, presentations). Facilitate cross-department communication to help users understand the value and applications of the data platform. 【Requirements】 -Basic Skills: Proficiency in SQL with knowledge of basic query syntax. Interest in learning BI tools (e.g., Tableau, Power BI). -Communication Skills: Strong verbal and written communication skills to convey technical concepts clearly. -Personal Traits: Quick learner of new tools and technologies with a proactive attitude toward problem-solving. Customer-focused mindset with a willingness to support and assist colleagues. -Preferred Qualifications: Familiarity with basic principles of database normalization. Preliminary experience in data modeling (e.g., Star Schema, Snowflake Schema). Experience in data analysis. Participation in technical support or internal training-related work.展開 -
【全球智慧製造】資深資料工程師(Data Lakehouse)
面議(經常性薪資達4萬元或以上) 40000元 新北市新店區 3~4年工作經驗【全球智慧製造】 你知道Garmin的智慧工廠嗎? 你知道火星上出現過Garmin的產品嗎? 你知道飛行員總是配戴Garmin的手錶上天空嗎? 全球智慧製造服務計畫(GSMS)透過AI、機構、電控、資料科學、IoT、大數據等技術,將智慧製造系統,即時控制與調整全球生產系統,且在地化支援亞洲、美洲、歐洲多個國家 如果你想體驗不同的文化,綻放自己的光芒! 現在就投遞履歷,讓我們見識你的獨特潛力! 【Introduction】 With increasing velocities, varieties and complexity of data at Process Integration (PI), the PI Data Engineering Team becomes the important role supporting existed or new projects using big data techniques to manipulate large streaming/batch dataset with various format on highly efficient way. 【Responsibilities】 -Design and Implement data streaming pipelines/ETL batch services on Hadoop and Spark eco-systems supporting production line -Design and implement scalable, high performance and low latency Web service/RESTful APIs. -Data warehouse dimensional modeling and developing and optimizing complex SQL queries for applications. -Cross-functional collaboration with domain experts and data scientists -Coach and mentor junior data engineers to be more effective individual contributors -Investigate the next generation data pipeline and architecture to improve data quality and integrity. 【Requirements】 -3 Years+ of programming using Scala/Java/Python -3 Years+ of experience in data modeling for both OLTP and OLAP databases on data warehouse, data lake, and enterprise big data platforms. -3 Years+ of hands on experience in developing Web service/Restful APIs -Experience with testing, data validation, and data quality assurance, performance tunning -Strong knowledge of ER modeling, big data, enterprise data, and physical data models -Willing to further discuss with data user to know their truly intention and requirement展開
