1.DevOpsエンジニア(AWSスペシャリスト)
業務内容:
AWSクラウドサービスを活用したインフラストラクチャの設計、構築、維持管理を行います。
CI/CDパイプラインの構築と管理を通じて、開発から運用までのプロセス自動化を推進します。
スクラムチームと協力し、プロダクトのリリース計画に沿ったインフラストラクチャの準備を行います。
システムの監視、ロギング、アラート設定を通じてシステムの安定稼働を保証します。
2.バックエンド開発者(Pythonエンジニア)
業務内容:
Pythonを使用したバックエンドシステムの設計、開発、テスト、デプロイを担当します。
スクラムチーム内でプロダクトバックログアイテムの実装を行い、スプリント計画に従ってタスクを完遂します。
コードレビューを通じて品質保証を行い、持続的なコード改善を推進します。
3.スクラムマスター
業務内容:
スクラムプロセスの導入と実施をリードし、スクラムチームの生産性と効率の最適化を図ります。
デイリースクラム、スプリントレビュー、スプリントプランニング、スプリントレトロスペクティブなどのスクラムイベントの進行を支援します。
ームメンバー間の障害解消をサポートし、プロジェクトの進行における障害を特定し解決策を提案します。
プロジェクトの進捗を追跡し、関係者への報告を行います。
4.データエンジニア
業務内容:
AWSクラウドサービスを利用して、スケーラブルなデータパイプラインの設計と構築を行います。
Pythonを使用してデータ収集、データ処理、データクレンジングのスクリプトを開発します。
ビッグデータ技術(Hadoop, Sparkなど)を用いて大規模データセットのバッチおよびリアルタイム処理を実行します。
ETLプロセスの最適化を行い、データ品質とデータアクセスの向上を図ります。
1.AWSに関する深い知識と経験(EC2, S3, Kinesis, Lambdaなど)
SAM,Terraformなどのインフラストラクチャコードツールの経験
2.Pythonによるプロフェッショナルな開発経験
優れたチームワークとコミュニケーション能力
3.スクラムやアジャイル開発プロセスに関する知識および経験
コミュニケーションとリーダーシップスキル
コンフリクト解決やチームビルディングの能力
プロジェクト管理ツール(JIRAなど)
4.AWSのデータ関連サービス(Amazon S3, EMR, DynamoDB)の経験
Pythonを用いたデータ処理の実務経験
1.DockerやKubernetesなどのコンテナ技術に関する知識
Pythonを含むスクリプト言語でのプログラミング経験
2.ユニットテストの実施経験
DockerやKubernetesなどのコンテナ技術に関する知識
pandasを使用したデータ分析経験
統合テスト、システムテストの設計と実施
4.Kinesis, Apache SparkやApache Kafkaなどのビッグデータ処理技術の知識
データモデリングとデータウェアハウスの経験
・体調が安定しており、勤怠良好な方
1回
オンライン
Win/Mac どちらか
※一部の案件に限ります
非公開非公開非公開非公開非公開
非公開
非公開
非公開
非公開
非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開非公開
非公開
非公開
非公開
非公開
非公開非公開非公開非公開非公開非公開非公開
非公開非公開非公開
非公開
非公開非公開非公開
非公開
非公開非公開非公開非公開非公開非公開非公開非公開
非公開非公開非公開非公開
AWSクラウドサービスを利用して、スケーラブルなデータパイプラインの設計と構築を行います。
Pythonを使用してデータ収集、データ処理、データクレンジングのスクリプトを開発します。
ビッグデータ技術(Hadoop, Sparkなど)を用いて大規模データセットのバッチおよびリアルタイム処理を実行します。
ETLプロセスの最適化を行い、データ品質とデータアクセスの向上を図ります。
人気案件の場合、早期に募集が終了する可能性がございます。お早めのご登録とエントリーをお勧めいたします。
何かお悩みやご相談がある場合は、「個別相談会」や「お問い合わせ」からお気軽にご連絡ください。