Apache Hiveの転職・求人検索結果

該当求人件数: 15件

キーワード

職種

選択する

スキル

スキルを探す

勤務地

選択する

年収

以上
もっと詳しい条件
検索条件を変更する
1~15 件目を表示(全15件)
  • 1
NEW 直接応募求人

<年収~1000万円-ビッグデータ設計者/ソリューション設計者>:コンピュータメモリ製造有力企業

QuEST Global Services Pte. Ltd.

<ビッグデータ設計者/ソリューション設計者~1000万円>:コンピュータメモリ製造有力企業

800万円~1000万円 / リーダー

QuEST Global Services Pte. Ltd.
  • 勤務地

    神奈川県

  • 仕事内容

    (1)ビッグデータ設計者 -専門分野におけるリーダーシップ、アーキテクチャの推進、ビッグデータ情報管理&解析ソリューションの設計 -様々なアプリケーションニーズのための拡張可能なビッグデータアーキテクチャソリューションの設計および実装 -構造化および非構造化データの複数のソースの解析・提案、およびスケーラビリティ、高可用性、フォルトトレランス、柔軟性のあるデータアーキテクチャソリューションの設計 -チームのマトリックス全体のアーキテクチャ上のビジョンおよび方向を設定様々なデータタイプおよび大規模なコンセプト、論理的、物理的な設計開発 -エンタープライズアーキテクチャおよびインフラガイドライン・規格に沿ったビッグデータシステムの実装 -ビッグデータ環境に最適なセキュリティ、暗号化の実装 (2)ソリューション設計者 -製造現場の顧客のための明確に定義され説得力のあるデジタル戦略の開発 -要件、革新的なデジタルソリューション、プロセス、顧客経験を生み出すため、ビジネス全般にわたってチームと協業 -コアビジネスプロセスおよびそれに伴う技術ソリューションの理解 -ユースケースを詳述し、詳細な要件解析文書を作成

  • 応募資格

    ●必須要件● (1)ビッグデータ設計者 [1] ビッグデータスタックスを使用したオンプレおよびクラウド(Azure/AWS)に関する3年以上の経験 [2] 主要なビッグデータスタックの1つ、製造業(が好ましい)での4年以上の関連技術管理の経験 [3] 8年以上のJavaおよび関連フレームワーク開発経験 [4] ビッグデータおよびNoSQLプラットフォームテクノロジーでの3年以上の経験    -特に1つ以上の主要なHadoop分布の実務経験および様々な生態系コンポーネントの経験(例:MapReduce, MLLib, Impala, HBase, Sparkなど) (2)ソリューション設計者 [1] 半導体製造ドメイン向け大規模企業ソリューションの作成および展開に類似の15年以上の経験 [2] 半導体製造ドメイン経験 [3] 歩留まり改善活動経験 [4] 生産ラインの問題解決経験 [5] デジタルトランスフォーメーションプロジェクト指導実績 [6] 半導体企業のファクトリーオートメーション、次世代製造システム、ビッグデータおよび分析的なプラットフォームの作成および展開実績 〇尚可要件〇 (1)ビッグデータ設計者 [1] オンサイト+オフショアモデルプロジェクト実施の経験 [2] プログラミング言語:Python, Scala, Pyspark [3] ビッグデータ:Spark, Hive, Presto, Apache Airflow (2)ソリューション設計者 [1] ビジネス、技術、エンジニアリングのいずれかの学位 [2] 分析的なプローブ装置の作業経験があるとよい ●語学力● [1] 高い英語力のある方 [2] 外国籍の方の場合:JLPT N2またはN3以上

気になる 詳細を見る
NEW

プリセールス【データ分析基盤】 ◆KDDIグループ◆

非公開
パソナキャリアがおすすめする求人案件です。こちらの求人以外にも非公開求人も多数保有しておりますので、転職をお考えの方は、是非エントリーください。
600万円~900万円 / メンバー

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    【概要】 同社が展開する企業のデジタルトランスフォーメーションのための統合型データサイエンスサービスにおいて、導入のリードから導入後のデータ活用を促す、プリセールスを募集します。 【主な業務内容】 導入いただくクライアントと、社内エンジニア・データサイエンティストの間に立ち、デリバリーを推進していただくことを想定しています。 ■統合型データサイエンスサービスの提供における、  導入時の要件定義からデリバリーまでの一連の推進 ■サービス導入後の利用促進、カスタマーサクセス エンジニアリングとデータ活用に関する知識を両面から身につけることができるポジションで、クライアントの声を直接聞きながら、サービスの提供価値を上げることにコミットしていただくことができます。 今後よりニーズの高まるデジタルトランスフォーメーション(DX)において最先端の知見を得ることができます。 【サービスについて】 同社では、これまで企業のデジタルトランスフォーメーションをサポートするため、DMP、データマネジメントシステム、マーケティングプラットフォーム、事前・事後データ分析などのサービスを提供してきました。 こうした動きをさらに加速させるため、現在はDatabricks社とも連携し、シームレスなデータパイプラインや分析環境の構築を実現し、データサイエンティストによる処理業務の大幅な工数削減を見込むことができる統合型のデータサイエンスサービスを開始しています。 ※参考URL:https://databricks.supership.jp/ 【技術スタック】 Infra:AWS(EC2, ECS, ECR, Lambda, S3, Athena) 言語:Python DWH:Redshift, Hive, Snowflake その他:GitHub, CircleCI, Redash, Databricks ※職務内容の詳細につきましてはご面談時にお伝え致します。

  • 応募資格

    ■何らかデータ/機械学習ビジネスに携わった経験 ■Pythonのご経験をお持ちの方 ■顧客折衝経験(ビジネスコミュニケーションスキル) 【歓迎要件】 ・機械学習に興味のある方 ・DWH / MAツールを含むデータの取扱いに関する基本的な理解

  • 人材紹介会社

    株式会社パソナ

気になる 詳細を見る
NEW

データサイエンティスト 【同社の注力事業部の求人です!】

三井住友カード株式会社
★ 三井住友フィナンシャルグループの中核企業である同社にて、メンバーを増員いたします ★
最先端のキャッシュレス化に対して世の中に影響を与えることができるポジションです!
500万円~1000万円 / メンバー

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    クライアントやエンドユーザとコミュニケーションを行い、ビジネス課題を解析作業に落とし込み、機械学習/統計学のアルゴリズムを用いたモデル構築、仮説検証を通じて、ビジネス課題の解決策を提言する役割を担っていただきます。 ★例えば特定の加盟店にユーザーを送客する際などにいかに効率的にターゲティングを行い、成果を上げるのか最新の先端技術を用いながら企画から推進までをご担当いただきます。 【業務イメージ】 BtoBデータサービス”Custella(※)の”事業の推進、及びBtoC(カード会員)向けのデータ活用による価値創造のために最新技術を用いながら効率的なモデルの構築を担当いただきます。 (※)Custella:大手小売業、メーカー等でのキャッシュレスデータを活用したデータビジネス協業の実績有 【配属部署】データ戦略部 25名 配属はテクノロジーG(6名)を想定しております。 【魅力】 ★中期経営計画での注力分野に設定され、20年度はデータビジネス事業の土台作りを同部署の運営方針としております。 そのためこれからのキャッシュレスに大きなインパクトを与える、ある意味創業期のメンバーとして同事業に参画することができます! ★三井住友銀行とも連携をしており、競合他社と比較しても多くの加盟店と提携しているためリソース含め安定した基盤がございます。 ★VISAとの提携により得た成功体験によりチャレンジを推進する社風が同社には根付いており、金融機関でありながらも柔軟さを持ち合わせた会社です。 ★私服勤務可、副業可、リモートワーク制度有りなど従来の金融機関とは異なる環境であり、長期的に働ける環境が整っております。 ※職務内容の詳細につきましてはご面談時にお伝え致します。

  • 応募資格

    ■機械学習/統計学のスキルを用いたデータ分析実務 ■SAS、SPSS、Python、Rいずれかの分析ツール活用経験 【歓迎要件】 ・機械学習やDeep Learning等を行うためのプログラミング経験 ・機械学習などの事前作業として必要なデータプレパレーション、データクレンジング経験 ・Hadoopによるデータ処理、Hive、Impalaなどのクエリエンジンを用いたデータ分析経験 ・DataRobotを用いてビジネス課題を解決した経験 ・法人向けにデータ分析をサービスとして提供されていた方

  • 人材紹介会社

    株式会社パソナ

気になる 詳細を見る
NEW

プリセールス【データ分析基盤】 ◆KDDIグループ◆

非公開
パソナキャリアがおすすめする求人案件です。こちらの求人以外にも非公開求人も多数保有しておりますので、転職をお考えの方は、是非エントリーください。
400万円~900万円 / メンバー

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    【概要】 同社が展開する企業のデジタルトランスフォーメーションのための統合型データサイエンスサービスにおいて、導入のリードから導入後のデータ活用を促す、プリセールスを募集します。 【主な業務内容】 導入いただくクライアントと、社内エンジニア・データサイエンティストの間に立ち、デリバリーを推進していただくことを想定しています。 ■統合型データサイエンスサービスの提供における、  導入時の要件定義からデリバリーまでの一連の推進 ■サービス導入後の利用促進、カスタマーサクセス エンジニアリングとデータ活用に関する知識を両面から身につけることができるポジションで、クライアントの声を直接聞きながら、サービスの提供価値を上げることにコミットしていただくことができます。 今後よりニーズの高まるデジタルトランスフォーメーション(DX)において最先端の知見を得ることができます。 【サービスについて】 同社では、これまで企業のデジタルトランスフォーメーションをサポートするため、DMP、データマネジメントシステム、マーケティングプラットフォーム、事前・事後データ分析などのサービスを提供してきました。 こうした動きをさらに加速させるため、現在はDatabricks社とも連携し、シームレスなデータパイプラインや分析環境の構築を実現し、データサイエンティストによる処理業務の大幅な工数削減を見込むことができる統合型のデータサイエンスサービスを開始しています。 ※参考URL:https://databricks.supership.jp/ 【技術スタック】 Infra:AWS(EC2, ECS, ECR, Lambda, S3, Athena) 言語:Python DWH:Redshift, Hive, Snowflake その他:GitHub, CircleCI, Redash, Databricks ※職務内容の詳細につきましてはご面談時にお伝え致します。

  • 応募資格

    ■何らかデータ/機械学習ビジネスに携わった経験をお持ちの方 ■顧客折衝経験(ビジネスコミュニケーションスキル) 【歓迎要件】 ・Pythonのご経験がある方 ・機械学習に興味のある方 ・DWH / MAツールを含むデータの取扱いに関する基本的な理解

  • 人材紹介会社

    株式会社パソナ

気になる 詳細を見る
NEW

プリセールス【データ分析基盤】※ポテンシャル採用

非公開
パソナキャリアがおすすめする求人案件です。こちらの求人以外にも非公開求人も多数保有しておりますので、転職をお考えの方は、是非エントリーください。
400万円~650万円 / メンバー

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    【概要】 同社が展開する企業のデジタルトランスフォーメーションのための統合型データサイエンスサービスにおいて、導入のリードから導入後のデータ活用を促す、プリセールスを募集します。 【主な業務内容】 導入いただくクライアントと、社内エンジニア・データサイエンティストの間に立ち、デリバリーを推進していただくことを想定しています。 ■統合型データサイエンスサービスの提供における、  導入時の要件定義からデリバリーまでの一連の推進 ■サービス導入後の利用促進、カスタマーサクセス エンジニアリングとデータ活用に関する知識を両面から身につけることができるポジションで、クライアントの声を直接聞きながら、サービスの提供価値を上げることにコミットしていただくことができます。 今後よりニーズの高まるデジタルトランスフォーメーション(DX)において最先端の知見を得ることができます。 【サービスについて】 同社では、これまで企業のデジタルトランスフォーメーションをサポートするため、DMP、データマネジメントシステム、マーケティングプラットフォーム、事前・事後データ分析などのサービスを提供してきました。 こうした動きをさらに加速させるため、現在はDatabricks社とも連携し、シームレスなデータパイプラインや分析環境の構築を実現し、データサイエンティストによる処理業務の大幅な工数削減を見込むことができる統合型のデータサイエンスサービスを開始しています。 ※参考URL:https://databricks.supership.jp/ 【技術スタック】 Infra:AWS(EC2, ECS, ECR, Lambda, S3, Athena) 言語:Python DWH:Redshift, Hive, Snowflake その他:GitHub, CircleCI, Redash, Databricks ※職務内容の詳細につきましてはご面談時にお伝え致します。

  • 応募資格

    ■何らかデータ/機械学習ビジネスに携わった経験をお持ちの方 ■顧客折衝経験(ビジネスコミュニケーションスキル) 【歓迎要件】 ・Pythonのご経験がある方 ・機械学習に興味のある方 ・DWH / MAツールを含むデータの取扱いに関する基本的な理解

  • 人材紹介会社

    株式会社パソナ

気になる 詳細を見る

高給与・好条件の多くは未公開求人です

会員登録
NEW

データエンジニア【未経験歓迎】※分析基盤

非公開
パソナキャリアがおすすめする求人案件です。こちらの求人以外にも非公開求人も多数保有しておりますので、転職をお考えの方は、是非エントリーください。
500万円~1000万円 / メンバー

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    データソリューション事業で展開するプロジェクトにひもづいた社内のデータ利活用に際して、データ分析基盤チームのメンバーとしてチームを牽引いただける方を募集しています。 同社では現在以下のプロジェクトを推進しています。 ■データウェアハウスのアーキテクチャ刷新 ■データを取り扱う業務全般のガバナンスの強化 ■クライアントによるデータ分析基盤構築の支援 その中で、社内のエンジニアやサイエンティストと共にデータの取得、分析基盤構築、データベース設計など、課題解決のために必要な作業をプロジェクト内で推進していただくことを想定しています。 【主な業務内容】 ・データサイエンティスト、エンジニア、ビジネス職がメンバーとして参加するプロジェクトの管理、推進 ・クライアントが抱えている課題を直接ヒアリング、解決すべき問題の整理 ・サイエンティストやエンジニアと共に課題解決に必要な部分のシステム的な整理 ・センシティブなデータを扱う可能性があるということを意識したプロジェクト管理 ・クライアントのデータや自社データを掛け合わせて分析を行うための社内別部署のメンバーとの調整業務 ・負荷やコストを意識したコミュニケーション、プロジェクト管理 【プロジェクトで利用している技術スタック】 ・Infra:AWS(EC2, ECS, ECR, Lambda, S3, Athena, Aurora, CodePipeline, CodeBuild) ・言語:Python, Node.js ・OS:Linux ・DWH:Redshift, Hive, Snowflake ・構成管理ツール:Terraform, Serverless Framework ・その他:GitHub, CircleCI, Redash, Databricks ※職務内容の詳細につきましてはご面談時にお伝え致します。

  • 応募資格

    ■オープン言語でのコーディングスキルをお持ちの方 (Java または Pythonの経験者は歓迎) 【歓迎要件】 ・プラットフォームやインフラの設計構築、運用経験 ・Redshift等のクラウドネイティブなデータベース経験 ・Hadoopのクエリエンジン経験(Hive、Trino、Spark等) ・Talend等ETLツールやAmazon EMR利用したデータ処理経験 ・Tableau等のBIツールの利用に適したテーブル実装経験 ・Kubernetes、Dockerの使用経験 ・Google Cloud Platform、Amazon Web Services、Azureなどのパブリッククラウドの使用経験

  • 人材紹介会社

    株式会社パソナ

気になる 詳細を見る
NEW

データサイエンティスト

非公開
パソナキャリアがおすすめする求人案件です。こちらの求人以外にも非公開求人も多数保有しておりますので、転職をお考えの方は、是非エントリーください。
700万円~900万円 / メンバー

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    マーケティング・テクノロジー事業を提供している同社でデータサイエンティストを募集致します。 【具体的には】 インターネット広告配信システムの中で、直近ではインターネット広告におけるユーザのクリックや商品購入予測、入札戦略の最適化、リコメンデーションといった、コアアルゴリズムの研究開発を担っていただきます。最新の機械学習技術を取り込むだけでなく、実データにフィットした新しいアルゴリズムを開発し、実際のサービス上で高速にPDCAを回していきます。 ※職務内容の詳細につきましてはご面談時にお伝え致します。

  • 応募資格

    ■修士レベルの統計的機械学習の知識、もしくは学会発表、OSS貢献、自作アプリ公開などの実績をお持ちの方 ■予測系アルゴリズムの開発ができる方 【歓迎要件】※以下必須ではございません ■RDB・SQLに関する知識 ■Python(w/ Jupyter Notebook), R, SPSSなどによるデータ分析や統計解析 ■Hadoop(Hive, Impala)等を利用したビッグデータ分析

  • 人材紹介会社

    株式会社パソナ

気になる 詳細を見る
NEW

【東京】データ分析システムエンジニア

アイレット株式会社
★☆AWSシステム導入数/サービス仕様量国内No1!KDDIグループ参画でマルチクラウドSIへと成長を続けるクラウドインテグレーター☆★
【日本初のAWS最上位パートナー】【AWS最上位パート…
400万円~800万円 / メンバー

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    お客様のビッグデータを利用したデータ分析やデータ活用システム開発、データの可視化プロジェクトに関する業務を行っていただきます。 【担当案件】 ■Web広告のトップレベル企業のデータ分析システムの開発 ■スマホの故障予知分析システムの開発 【本ポジションの詳細・魅力】 ■お客様と協力してデータレイクをより良いものにしていくプロジェクトです。 ■ゲーム業界大手のお客様のビッグデータを自由に扱えます。 ■ビッグデータに関する深い業務知識の習得が可能です。 ■クラウド業界トップクラスの会社でAWSやGCPに関わらず幅広い知識を身につけることが可能です 【同社の魅力ポイント】 ■同社は国内のAWSパートナーの中でも最大のシステム導入数・サーバー使用量を誇るなどAWSに関しては国内No.1の企業です。 ■AWS資格取得支援制度や現場発信の勉強会などぶ環境は非常に整っており、クラウド未経験でご活躍されていらっしゃる方も多数いらっしゃいます。 ■2017年にはKDDIと資本提携を結ぶなど安定感も備えております。 【こんな方におススメの求人です】 ★今後クラウドの経験を積んでエンジニアとしての市場価値を上げていきたい方 ★企業に対してAWSを用いた提案(コンサル)のような仕事を行っていきたい方 ★エンタープライズな案件に携わっていきたい方 ★ベンチャー企業で企業の成長と共に自己成長を遂げたい方 【社風】 ★自主的に勉強会やなどを企画するなど社員同士で切磋琢磨する環境です ★1案件につき1つ新しい技術を身に着けるなど、技術好きな方が集まっています ★オフィスも非常にきれいで、豊富な福利厚生の仕組みも整えているため服装も自由でエンジニアの方々にとって働きやすい環境です ★1チーム3~5人程度で構成されており、1週間に1度のMTGを行うなど横のつながりも強いです ※職務内容の詳細につきましてはご面談時にお伝え致します。

  • 応募資格

    ■ビッグデータを扱うシステム開発の経験 【歓迎要件】 ■Hadoop、Hive、Spark、AWS EMRなどの経験 ■AWS上での開発の経験 ■アジャイル開発の経験 ■AWSでのインフラ構築の経験 ■Lambda開発の経験 ■データ分析の経験

  • 人材紹介会社

    株式会社パソナ

気になる 詳細を見る
NEW

技術系職種(IT・通信/WEB・ゲーム),アプリケーションエンジニア,システムエンジニア

楽天グループ株式会社
500万円~1000万円 / その他

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    【ポジションの責任】 ■プロダクトマネージャーを中心とした、知識や背景の異なるビジネスサイドの複数の関係者と密に連携しながら、事業計画やプロダクトロードマップに技術的な観点から貢献し、技術的な意思決定において信頼されるパートナーとなるプログラムマネージャーやデリバリーマネージャーと共に、動的に変わるビジネス環境・社会状況・競合状況に柔軟に対応しながら、ビジネスゴールや要件を実現するための技術的なロードマップ策定や優先順位付けを行う ■マーケティングプラットフォームのハイレベルなアーキテクチャ設計に責任を持つ ■ビジネス要件・ゴール・KPIを理解し、複数の開発チームの設計担当者と共に、ビジネス要件を実現するためのハイレベルなアーキテクチャ設計を行う ■社内外のシステム・プラットフォーム・サービスと連携するため、複数国・複数組織・複数機能にまたがるチームとの協業を行う ■開発チームの実際の開発をサポートする ■ビジネス要件をサポートするため、最新の技術を把握し、そのための調査を行う ■最新の技術がプラットフォームロードマップに活かせるかを判断するためのPOCを行う ■技術パートナー選定や評価プロセスをリードする、もしくは参加する ■採用・メンタリング・コーチング・評価等を通じ、アーキテクトや開発者からなる開発チームのチームビルディングに貢献する

  • 応募資格

    【必須経験・スキル】 ■技術的なソリューションやアーキテクチャの設計を含む、10年以上のソフトウェア開発経験 ■ビッグデータソリューションの経験(Hadoop, Hive, Spark, Kafkaなど) ■デジタルマーケティング・アドテクノロジーの基本的な知識(アドサーバー、RTB, DSP, SSP, DMP, キャンペーンマネジメントなど/実業務経験尚可) ■ビジネスサイドの関係者と密に協業した経験(マーケティングや広告領域の経験尚可) ■分析的・定量的な問題解決能力があること ■自己動機づけができ、自発的な動きができること ■当事者意識を持ち、物事を完遂させる強い意志があること ■チームプレイヤーとして、高いコミュニケーション能力を元に信頼関係を築くことができること ■日本語での流暢なコミュニケーション能力 ■英語でのビジネスレベルのコミュニケーション能力

  • 人材紹介会社

    株式会社マイナビ

気になる 詳細を見る
NEW

技術系職種(IT・通信/WEB・ゲーム),アプリケーションエンジニア,プロジェクト・マネージャ

楽天グループ株式会社
500万円~1000万円 / その他

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    Global Ad Technology Supervisory Departmentは、同社全体の広告ビジネスのシステムを開発・運用しており、200人以上のメンバーが在籍しています。 同社内の膨大なデータや、最新のテクノロジー、同社独自のビジネスモデルを駆使して広告ビジネスを支えています。 このような同社の広告ビジネスで働いていただく優秀なプロジェクト/プロダクトマネージャ、ソリューションアーキテクトを募集しています。 Global Ad Technology Supervisory Departmentには日本だけでなく多国籍の方が在籍しています。 世界中に拠点があり、シンガポール、インド、中国など世界中のメンバーとともに、最大のアウトプットを出せるよう取り組んでいます。

  • 応募資格

    【必須経験・スキル】 ■3~5年の開発・運用経験(特にWebサービス、バッチシステム) ■やる気があり、積極的に自走できる姿勢 ■プロジェクトの計画・実行の経験 ■優れたトラブル対応およびデータ分析スキル ■プロセス指向で強力なコミュニケーション能力 【歓迎スキル・経験】 ■Adテクノロジーの知識がある(RTB, DSP, SSP, DMP and so on) ■ビッグデータのテクノロジーの知識がある (Hadoop, Hive, Spark, Kafka, etc) ■BI/DWH/ETLシステムの開発経験 ■1年以上のデータベース実務経験 ■1年以上のデータ分析業務の経験 - BIツール(Tableau, MicroStrategy, etc)の仕様経験含む ■デジタルマーケティング、データマネジメントプラットフォームの実務経験 ■プラットフォームサービスでのユーザへのテクニカルサポートの経験 ■国をまたいだプロジェクト実務経験

  • 人材紹介会社

    株式会社マイナビ

気になる 詳細を見る

◆【人気企業】データベースエンジニア【各事業の基盤構築】

非公開
OSSベースの標準的な技術でシステム構築しているため、エンジニアとして市場競争力がつきます!
550万円~899万円 / メンバー

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    様々な事業において、数TB / dayレベルのデータを捌くためのデータパイプライン、高速なPDCAサイクルを回すためのアナリティクスツール、ユーザエクスペリエンスに寄与する機械学習基盤などを、事業の特性に応じて開発運用しています。 Hadoop、Hive、Presto、Fluentd、Spark、Digdag等のミドルウェアや、Kinesis、DynamoDB、BigQuery等のマネージドサービスを利用します。 業務例 ・オンプレミスからクラウド(AWSもしくはGCP)へのデータ基盤の移行 ・クラウドデータ基盤およびBIツールのユーザーエクスペリエンス改善 ・クラウドデータ基盤およびBIツールの運用整備 ・各事業へ機械学習を応用するための基盤整備 ・利用者からの問い合わせ対応 この仕事の魅力 ・ネイティブゲームやライブエンタメなどの各事業において、データ基盤は縁の下の力持ちであり、事業を成長させる原動力になり得ます。 ・データ基盤技術は世界的にも各社オープンにする事が多く、また進歩の早い分野であるため、自分たちの技術力を世界基準で把握することができ、向学心が刺激されます。 ・社内システムとはいえデータ量は膨大であり、かなり規模の大きい分散処理システムを開発運用する経験が得られます。 ・OSSベースの標準的な技術でシステム構築しているため、エンジニアとして市場競争力がつきます。 チームには親切で優秀なエンジニアが多く、とくに若手にとってはエンジニアとして成長しやすい環境です。機械学習や深層学習の自主勉強会もグループ内で開かれており、その辺りの知識も吸収しやすいです。

  • 応募資格

    ▼データエンジニアリング ・Python、Java、PHPを使用したアプリケーションの開発経験 ・一般的なミドルウェアの基礎知識 ・MySQL/NoSQLを利用した開発経験 ・インフラ/DevOpsを含めたシステム全体の設計/構築/運用経験

  • 人材紹介会社

    株式会社アールストーン

気になる 詳細を見る

【外資系生命保険会社(日系大手資本)】ITアーキテクト部 データアーキテクチャ

非公開
企業業績が、年2回以上の賞与に反映!
600万円~1400万円 / メンバー

取り扱い人材紹介会社

丸 誠一郎
  • 勤務地

    東京都

  • 仕事内容

    1.データアーキテクチャの企画と運用。 2.データアーキテクチャガバナンスプロセスの企画と実施。 3.アプリケーションデータマネージメント、データ品質、データセキュリティ、データガバナンス、データ分析へのソリューション提供。 4.業務アーキテクチャと情報アーキテクチャの整理とアプリケーションアーキテクチャのガイド。 5.青写真、ロードマップ、実装計画を作成するため、全てのデータが関連する部門への援助。 6.情報アーキテクチャに関連する全ての関係者の推進と手助け。 行動力に富み、難しい課題に対して精力的に取り組む姿勢があれば、チャンスを掴める機会は絶えず存在します。また、公私に渡りどんな時でも、幅広い興味と関心を持つことで、問題やチャレンジを広い視点で捉えることができ、その描くシナリオは未来に必ず結実するものとなります。そうした個人の能力を発揮できる企業風土が当社にはあります。

  • 応募資格

    【必須要件】 ・コンピューターサイエンス、データサイエンス、数学の学士、修士を有している方。 ・日本語:ビジネスレベル(日本語検定1級)もしくは母国語。 ・日本の保険産業(民間企業、共済組織)が運営する生命保険・損害保険の情報システム部門(ITベンダーとしての参画も可)におけるIT経験が5年~10年ある方。 ・日本の金融産業におけるアーキテクトもしくはコンサルタントしての経験が5年~10年ある方(こちらを満たしていれば、保険業界の経験が短くても考慮します)。 ・各部門長、経営幹部層とのコミュニケーション能力。 ・DB/データモデル、データ分析、データ品質、データーガバナンス、データサイエンス、情報アーキテクト領域に対する情熱と専門性のある方。 ・日本市場における主流DB(DB2、Oracle,SQL Server)の経験が最低5年ある方。 ・データ分析、ウェアハウス、BI、ビックデータ(Hadoop,Map/reduce,Spark,Hive)、データマイニングの経験が最低5年ある方。 ・機械学習やTensor flow、ディープラーニングのようなAIフレームワークの知識や経験。 ・AIやデータサイエンスのベストプラクティスを実際に導入した実経験を有する方。 ・環境設定やりアーキテクチャ、リファクタリング分析基盤のようなDB、ウェアハウス、ビックデーターサービスの幅広い知識とご経験のある方。 ・Splunkを用いたような自動データ解析のご経験。 ・大卒以上。 ・コミュニケーション力が高く、チームで成果を出すことに意欲的な方。 ・「何をしたい」という具体的な目標を持ち、向上心がある方。 【推奨技術】 1.Oracle,DB2、SQL Server 資格。 2.PostgreSQLやAuroa,MySQLのようなDB技術のご経験。 3.CentSOや非商業用ストレージのような低価格のオープンソースソリューションのご経験。 4.プロジェクトマネージメント経験、もしくは資格。 5.TOGAFのようなフレームワーク資格や5年間ほどのアーキテクト経験。 6.コンテナ化されたデプロイメントのご経験。 7.クラウドのご経験(MS Azure,AWS,IBM Private Cloud)。 8.Google Analytics,Azure/AWS Databricks,SFDC Einstein の経験や知識。 「仕事の進め方・働き方がちがいます!」 同社は、時間外労働の削減の観点に留まらず、仕事の進め方自体を抜本的に見直す取り組みであり、社員一人ひとりが、生産性を向上させそれぞれの仕事により大きな付加価値を生み出しながら、ライフの充実を図り、個人の価値も向上できるようになることを目指しています。 ■在宅勤務制度 同社は、全社員が「時間と場所に捉われない働き方」を実現できる環境を整えています。具体的には、全社員がシフト勤務・フレックスタイム制度等の柔軟な勤務制度を利用することができます。シフト勤務は、朝7時から夜9時の時間帯で8パターンの勤務帯を一日単位で選択することができ、フレックスタイム制度は、組織単位でコアタイムの有無を選択できます。また、短時間勤務制度や時間単位年休も整備しており、時間に制約のある社員でも、柔軟に勤務できる環境を整備しています。 ■コワーキングルーム 同社では、全社員に在宅勤務を認めています。シンクライアント形式のノートPCやタブレット端末を用いて、テレビ・Web会議を併用しながら通常業務を行うことが可能で、一部の業務では、個人情報を扱う場合についても在宅勤務を認めています。さらに、自宅や事業所以外でも、タブレット端末やスマートフォンを利用して社内システムにアクセスできるモバイルワーク環境も整備しているほか、全社員が利用できるサテライトオフィスやコワーキングルームを首都圏を中心に主要拠点内に設置しています。

  • 人材紹介会社

    ニューベリービジネスコンサルティング株式会社

気になる 詳細を見る

ITスタッフ(データアーキテクト)

外資系生命保険会社
600万円~1400万円 / その他

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    当社は、エンタープライズアーキテクト領域における個々のデータアーキテクチャやデジタルトランスフォーメーションを推進・実装するために、優秀なデータアーキテクトを探しています。 理想的には、候補者の経験やコミュニケーション能力などのソフトスキル、リーダーシップなどを書類選考や面接時に表現していただきたいと考えています。 ■主な業務内容と範囲 1.データアーキテクチャ(*)の企画と展開 (*)エンタープライズデータの戦略的要件の定義、および、計画、設計、モデリング、実装、生成、収集、維持、利用、保存等のデータライフサイクル全体のプロセス 2.データアーキテクチャ、データ品質、データセキュリティ、データガバナンス、データ分析へのフレームワーク、およびソリューション提供 3.業務アーキテクチャを踏まえてデータアーキテクチャを整理し、アプリケーションアーキテクチャをガイド 4.青写真、ロードマップ、実装計画を作成するため、データアーキテクチャの利用、もしくは関連する全ての部門への援助 ■職務内容 <必須> 1.当社日本社のデータアーキテクチャの企画と展開 2.データアーキテクチャ領域におけるソリューションの開発と管理 3.データ品質方針と評価基準とロードマップの開発 4.データマネージメント方針の作成と他部門への水平展開の実施 5.データ分析サービスロードマップの作成に向けた支援 6.データサイエンティストによるBigdata分析や、AIモデルの構築に向けたソリューション開発のための協業 7.エンドユーザーによるデータ抽出や分析・加工(定例・非定例)に向けたソリューション開発のための協業 8.データサービス(*)ロードマップの実行のための推進 (*)アクセスレイヤを介してエンタープライズ内のあらゆる情報にアクセスできるようにするサービス <歓迎> 1.他ITガバナンスやセキュリティガバナンスプロセスと整合性があった、データガバナンスの開発と運営 2.ソリューションやIT運用に適応したセキュリティ規約をセキュリティーチームと作成する 3.当社日本社へのAIやデータサイエンスのような新しい技術のベストプラクティスの適応 4.当社日本社グループ運営力向上のためのソリューションや戦略の開発支援

  • 応募資格

    ■必須 1.コンピューターサイエンス、データサイエンス、数学の学士、修士を有している 2.日本語:ビジネスレベル(日本語検定1級)もしくは母国語 3.金融産業におけるアーキテクトもしくはコンサルタントしての経験が5年~10年 4.DB/データモデル、データ分析(DWHの知識含む)、データ品質、データアーキテクト領域に対する情熱と専門性 5.日本市場における主流DB(例:DB2, Oracle, SQL Server)の経験が最低5年 ■歓迎 1.日本の保険産業(民間企業(共済組織を含む)が運営する生命保険・損害保険の情報システム部門(ITベンダーとしての参画も可)での経験)におけるIT経験が5年~10年(職務履歴書への記載必要) 2.日本の金融産業におけるアーキテクトもしくはコンサルタントしての経験が5年~10年 3.各部門長、経営幹部層とのコミュニケーションができる卓越した能力 4.データガバナンス、データサイエンスに対する情熱と専門性 5.データ分析、ウェアハウス、BI、ビックデータ(Hadoop, Map/reduce, Spark,Hive)、データマイニングの経験が最低5年 6.機械学習やTensor flow、ディープラーニングのようなAIフレームワークの知識や経験 7.AIやデータサイエンスのベストプラクティスを実際に導入した実経験 8.環境設定やリアーキテクチャ、リファクタリング分析基盤のようなDB、ウェアハウス、ビックデーターサービスの幅広い知識とご経験 9.Splunkを用いたような自動データ解析のご経験 ■推奨技術 1.Oracle,DB2、SQL Server資格 2.PostgreSQLやAuroa, MySQLのようなDB技術のご経験 3.CentOSや非商業用ストレージのような低価格のオープンソースソリューションのご経験 4.プロジェクトマネージメント経験、もしくは資格 5.TOGAFのようなフレームワーク資格や5年間ほどのアーキテクト経験 6.コンテナ基盤のデプロイメントのご経験 7.クラウドのご経験(MS Azure, AWS, IBM Private Cloud) 8.Google Analytics, Azure/AWS Databricks, SFDC Tableau CRM(Einstein Analytics) の経験

  • 人材紹介会社

    株式会社コトラ

気になる 詳細を見る

Hadoop Developer for Insurance Client

欧州最大のコンサルティングファーム
800万円~1000万円 / その他

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    Responsibilities ・Providing engineering supports incoming projects and operations ・Design, develop and maintain scala/spark applications on the Hadoop ecosystem ・Supporting database performance tuning with discussing with the client ・Supporting engineering security inspections ・Basic Hadoop administration and job monitoring

  • 応募資格

    Requirement ・Sound understanding of the Hadoop ecosystem ・Hands-on experience of Hadoop components: HDFS, Hive, HBase, Phoenix, Solr, Oozie ・Minimum 3+ years of experience in Scala ・Strong coding expertise with Scala and Spark. ・Good understanding of database concepts and SQL ・Experience with Unix and shell scripts ・Good knowledge of git and sbt ・Experience of database performance tuning for Oracle and SQL Server ・Working experience on Hadoop framework including HDFS, Hive, HBase, MapReduce, Oozie, Phoenix, Solr ・Experience in Scala, Spark 2.0 and tools such as Eclipse or Intellij ・Experience in RDBMS and SQL, Unix/Linux shell scripting, python and Java ・Data transformation using spark, streaming Language Proficiency: Fluent English and nice to have Japanese

  • 人材紹介会社

    株式会社コトラ

気になる 詳細を見る

Analytics Delivery Manager/Data consultant

大手証券会社(本社・ミドル・バック部門)
700万円~1000万円 / その他

取り扱い人材紹介会社

  • 勤務地

    東京都

  • 仕事内容

    ■Responsibilities: Create and maintenance Tableau dashboards for Senior Board, Finance, HR, Risk and Other units, providing performance and trend data in a meaningful actionable way for end-users Create automated data reports to inform business units, including documentation, toolkits, and FAQ guides Examine data, processes, and technologies to evaluate the current state and critical problems for internal business functions Promote GDO to internal/external users to raise GDO’s awareness and presence in the company Data management, data warehousing, data integration, data migration, business intelligence, analytics, and project delivery across advisory and technical delivery projects Research and make recommendations about training, equipment, and technology to improve data use Train and mentor teams and internal business units in data input, use, meaning, and analysis

  • 応募資格

    <Technical Skills> ・Current hands-on implementation experience required, possessing 3 -5 years of big data platform implementation experience. Experience with analytic solutions applied to the Marketing or Risk needs of enterprises. ・Strong understanding of analytics and data science ・Microsoft Access ・Familiarity with SQL-on-Hadoop technologies such as Hive, Pig, Impala, Spark SQL, and/or Presto. <Soft Skills> ・Strong verbal and written communications skills are a must, as well as the ability to lead effectively across internal and external organizations and virtual teams. ・A talent for being able to influence and build mindshare convincingly with any audience. ・Proactive, self-starter with strong business analysis skills - understanding business impacts and proposing solutions with the ability to translate data into insightful business intelligence ・Flexibility and ability to deal with ambiguity ・Business English is must, Japanese is preferable <Preferred> ・Python or Java ・Track re

  • 人材紹介会社

    株式会社コトラ

気になる 詳細を見る
1~15 件目を表示(全15件)
  • 1

送信に失敗しました。