Spark案件数
Spark案件・求人の月額単価相場
平均単価
89.0
万円
最高単価
104.5
万円
最低単価
77.0
万円
リモートでの就業が可能となります。
※ミーティング時に出社してもらいます。
学生向け学習アプリのデータ分析基盤構築・運用担当として下 記 ような業務に携わっていただきます。
①関係各所から依頼されるレポーティン グ・分析要件に応じたデータ分析基盤 開発・運用業務
②データと機械学習を活用したレコメン ドや動画内 情報検索機能など 新規機 能開発業務
・Treasure Data / BigQuery / Hadoop / Spark など分散データ処理基盤を用いた開発経験
・Presto / Implara / Hive など 分散 SQLエンジンを用いた大規模データ処理 設計・開発経験
・転職サービスにおけるレコメンドエンジンの改善、新規開発を担当して頂きます。(データ加工、バッチ開発、WebAPI開発、新規技術検証、分析基盤開発)
・施策内容、本人のスキルセット及び希望によっては、機械学習モデルのチューニングやデータ分析もアサイン予定です。
・ Python、Shell、SQL、Javaの業務使用経験
・バージョン管理ツール(Git/SVN)業務使用経験
・inux環境における開発経験(LPICレベル1程度以上の知識)
・開発ドキュメント作成経験(詳細設計書、テスト仕様書等)
・常駐可能である
主な業務は、ビッグデータ技術を駆使した、社内向け業務基盤システムの開発です。
<具体的な業務内容>
・社内における業務基盤システムの開発および運用(Webベース)
そのほか、業務効率化を目的としたシステム開発、お客さま向け(インターネットにおける広告関連)のシステム開発の実績も多数。
開発はチーム体制(プロパーとグループ会社)で行っていただきます。
【仕事の特色】
システムインフラは、全て自社で構築、管理している同社。
独自の仮想インフラを有しており、新技術の検討や検証のために活用されています。
システム開発だけでなく、ネットワークやサーバの構築、システム運用監視の経験ができる機会もあるのが特徴的。
社内向けシステムの開発は、利用者との距離が近いため、企画・開発、新技術に積極的にチャレンジしやすい環境です。
主にHadoopやImpala、Sparkなどのビックデータの技術、ElasticSearchなどを採用。
さらにインタラクティブなUIにするため、BootstrapやAngularJS、JQueryを取り入れています。
また、クラウドも積極的に活用していく方針です。
<社内>
社内では20代、30代の比較的若いメンバーが揃っています。
制作チームにおける女性の就業率も高く、男女ともに働きやすい職場環境です。
・JavaまたはPHPを使った開発経験
・違う職種や立場の人とスムーズに業務を進行できる方
・インターネット広告配信システムにおけるログ収集/集計システムの開発/運用
・レポーティングツールの開発/運用
・大規模データ解析を効率よく行うためのデータ処理基盤、ツールの開発/運用
・Hive、Spark、 AWS Athena、Google Bigquery等 オープンソース、クラウド上問わずデータ処理基盤の調査、活用
・配信最適化ロジック設計/開発、及びデータ分析
・Linux上での開発/運用経験
・AWSを利用したシステム構築業務経験、またはシステムのログ収集/解析業務経験
・Hadoop等の分散データ処理基盤の利用/運用経験
・インターネット広告における配信システムのログ収集/解析業務を学びながら成長していきたい方
※過去に1年以上該当する実務の経験が必要です。
※リーダー経験よりも実務経験、スキルを重要視します。
AI×SaaSの自社プロダクト開発部門で、インフラ環境の構築と運用、パフォーマンスやコスト改善などの業務をご担当いただきます。
▽募集背景
これまでは在籍しているエンジニアがSREを担当していましたが、事業拡大に伴い、
専任のSREエンジニアを募集し、より安定したサービスの提供を目指したいと考えています。
▽業務内容
・セキュリティ対策:アカウントセキュリティ、マネージドサービスによる防御と検知の設置、ログ集約、障害テストなど
・マルチアカウント対応:アカウントの組織管理、サービスコントロールポリシーとガードレールの設定など
・システムのスケーラビリティの確保:サービスレベルの策定、モニタリング設置、インフラ・アプリ環境の最適化、性能テスト実施など
・自動化の推進:リソース構成のIaC化、監視ツールの導入、セキュリティ検知の自動通知など
・上記タスクに伴う運用ルール、ドキュメントの整備、監査レポートの作成
・SREまたは関連するITインフラストラクチャの経験
・プログラミングスキルやスクリプトの作成経験
・クラウドサービスやコンテナ技術に関する知識や経験
・システムやアプリケーションのモニタリング、トラブルシューティング、パフォーマンスチューニングの経験
社内データ分析基盤全般の開発・保守・運用
■Python/Shell/Rubyで開発されているバッチ系システムが主
・データレイクへの取り込み
・中間テーブル生成
■追加機能開発 / 不具合調査・修正 / 社内ユーザーからの問合せ対応
・社内ユーザコミュニケーションや要件定義も含む
・インフラからコードデプロイまでを担当
- ローカルで実装、Sandbox環境で動作検証、Productionデプロイ
■開発案件例
・中間テーブル生成ロジックの実装・メンテナンス
- 売上集計テーブル、税理士向け事業中間集計テーブル等
・データレイクへ取り込むテーブル/カラムの追加
- プロダクトDBやSalesforce等のデータ
・Redshift依存処理のリプレイス
・Pythonでのプログラミング経験
・Shell Script を使ったバッチ処理作成経験
・SQLでクエリが書ける
・git/GitHubの利用や、チケット管理 (JIRA, backlog等) での開発経験
・クラウド環境のDWH利用経験 (Redshift, BigQuery, snowflake 等)
・docker / docker-compose の利用経験
・ユニットテストの経験
【案件詳細】
スタートアップ企業でのフロントエンドエンジニア業務全般をお願いします。
※データ分析案件に携わっていたことがある方は親和性が御座います。
以下のいずれかを得意としていて、その他の分野に対しては、キャッチアップしていく意欲がある方
・Djangoを使ったWEBサービスの開発経験(1年以上)
・バックエンドエンジニアとしてWebサービスの開発に携わられた経験
・コンピュータサイエンスの基礎知識(アル ゴリズム、データ構造 、データベース、ネットワーク等)
・プロジェクトにおけるAPIやシステムの開発、および運用経験
データ集積システムの開発・運用に関連するエンジニアリング業務
チームの役割: 各種システムに分散しているデータを収集・整形し、分析可能な形で社内のユーザー(社員)に届ける。
【主な担当業務】
データ集積システムの構築に関わる連携バッチの開発やデータマートの作成業務が中心です。
各部署の利用者から上がってくる要望や作業依頼を実現するための要件ヒアリングや開発、運用作業を行います。
また利用者からの要望に先んじてシステム改善を行うための開発も行います。
・要件定義、要件ヒアリングの経験
・Pythonでの開発経験
・SQLの理解・使用経験
・データ基盤の構築経験
・データモデル設計経験
・クラウド環境(GCP,AWS)での開発経験
・Webセキュリティ知識
仕事内容データアーキテクチャ、クラウド、分散プラットフォームなどデータエンジニアリングの技術を駆使して、利用者の用途や活用目的に応じたDWH・CDP環境を構築します。
【業務内容】
- 新規アプリの開発
- リリース後アプリ内での既存機能の改善・保守
- リリース後アプリ内での新規機能の設計・開発・テスト・リリースの実施
- クラウドを利用したDWH・CDPの構築
- ETLの実施・Workflowの作成
- BIツールを利用したダッシュボード構築
-API経由でのデータ接続
-BIツールによるダッシュボード構築
【案件詳細】
・小売店舗内のサイネージ(STB/タブレット端末など)にコンテンツや広告の配信を行うシステムの開発
・小売店舗内のIoT・エッジソリューションのシステム開発
・サイネージの端末管理と遠隔メンテナンスを行うシステムの開発
・データベース(RDB、NoSQL)の設計、運用
・Hadoop、Sparkなど分散処理フレームワークの知識
・EmbulkとDigdag等workflowに対する知識
某住宅・不動産ポータルサイトを運営している企業で、データ集積システムの構築・運用に関連する業務をお任せいたします。
チームのミッションは各種システムに分散しているデータを収集・整形し、分析可能な形で社内のユーザーに届けることです。
主な担当業務は、 データマートの作成(利用者の要件を元に分析用データテーブルを作成する)とその周辺業務となります。
・データマートの設計・作成
・データ利用者への要件ヒアリング
・データ収集バッチの運用開発
・BIツールの設定
・既存システム・データの調査
・SQLの理解
・要件定義、要件ヒアリングの経験
・Python
・データモデル設計
・クラウド環境(GCP,AWS)での開発経験
・Webセキュリティ知識