個別相談会で
情報収集・悩み相談しませんか?
テクフリではコーディネーターが
無料でオンライン相談会を実施しています。
個別相談会で情報収集・
悩み相談しませんか?
テクフリではコーディネーターが
無料でオンライン相談会を
実施しています。
・深層学習を専門とするソフトウェアエンジニアとして、リサーチャーと協力しながら研究プロジェクトを推進する。
・深層学習を専門とするソフトウェアエンジニアとして、深層学習に関する研究開発成果の製品への導入を支援する。
・汎用プログラミング言語の知識と使用経験(C++、 Ruby、Python、Scala、Javaなど)
・機械学習/深層学習のツールまたはライブラリの使用経験(TensorFlow、Chainer、Keras、Caffe、PyTorchなど)
・深層学習に関する論文を読み、そのアルゴリズムを理解する能力
応募資格:
・優れたプログラミング能力を有すること。
・コンピューターサイエンス系・理学系・工学系のカリキュラムを有する領域の修士号もしくは博士号を有すること。
・深層学習を使用した研究成果として国際会議に筆頭著者として1件以上フルペーパーを投稿したことがあること
もしくは、修士・博士のいずれかの学位論文において深層学習を活用していること。
・コンピューターサイエンス分野全般を幅広く学習し、業務に積極的に応用する姿勢を有すること。
・当企業における様々な事業にIoTを実装するため、PoCから本番実装までに必要な開発及び分析をご担当いただける方を新規で募集いたします。
・主にディープラーニングを使った画像認識や音声認識モデル開発、Raspberry Pi等のエッジデバイス開発まで含めたプロトタイプ実装、PoC向けアプリ実装等の業務を予定しております。
ただし、ご本人のスキルセット及びご希望を考慮し、業務内容は適宜調整させていただきます。
<開発系>
- Python、Shell、SQLの業務使用経験
- バージョン管理ツール(Git/SVN)使用経験1年以上
- Linux環境における開発経験(LPICレベル1程度以上の知識)
- AWS/GCP等のクラウド使用経験
<分析系>
- データ加工、モデル構築、検証、レポーティングまでの一連の分析業務経験
- 機械学習の基礎知識
・新卒向け事業におけるデータ分析、およびデータを活用したソリューション開発を担当していただける方を募集いたします。
・ご本人のスキルセット及び希望を考慮し、業務内容(分析系/開発系のバランス)は適宜調整させていただきます。
※分析系 -> 基礎分析、モデル構築、レポーティングなど
※開発系 -> 大規模データ処理、バッチ開発、新規技術検証など
※分析系 または 開発系のいずれか必須
<分析系>
- 機械学習や統計学の業務利用経験
- Python(またはR)、SQLの業務利用経験
- 顧客と分析を設計する経験
- データの取得、前処理、分析、検証、レポーティングまでの一連の分析業務経験
<開発系>
- Java、Python、Shell、SQLの業務利用経験
- Linux環境における開発経験
- AWSの業務利用経験
- ドキュメント作成経験(設計書、テスト仕様書など)
・不動産、ブライダル、旅館予約サイトなどを運営するグループ全社の共通横断データを活用したプロダクト開発に参画いただき、データによる事業貢献、および利活用の促進に向けてご参画頂きます。
・この案件では、Web広告配信の投資対効果を改善するため、コンバージョン確率の予測モデル開発をご担当頂きます。
・インフラチーム、バッチジョブ開発チームと協力しながら、多岐にわたるデータを駆使して機械学習のモデル設計と実装を行っていただきます。
●プロダクト開発
・施策理解に根ざした設計、開発、運用 ・ランダムフォレスト、XGBoostなど複数の予測モデルでプロトタイプを作成し、トレードオフを踏まえながら最適なモデルを選定 ・精度改善の仮説を出し、検証・結合試験、機能試験、非機能試験等の品質評価
●集計ジョブの開発・運用
・Oracle, BigQuery 等を用いた集計処理
・仮説構築 ~ データ分析(基礎集計など)〜 機械学習手法の実装〜改善までの一連の流れの経験
・機械学習モデル開発の1年以上の経験
・チーム開発経験
・会社の各種サービスのデータを横断的に分析するビッグデータ分析基盤で、ETL処理の開発をご担当いただける方を募集いたします。
・担当していただくのは、Oracle Exadata, GCP BigQuery, GCS, AWS S3等の様々なシステム間のETL処理 の設計・開発・保守になります。
・関係者に対して 積極的にコミュニケーションを取り、自ら積極的に課題を解決できること
・Linux上にて、bash等 を用いたバッチ処理の開発・運用経験
・RDBMSの基礎知識とSQLの知識(書かれたSQLを読め、簡単なSQLがかけること)
・全社のデータ解析環境をオンプレミス環境からクラウド環境へ移行するプロジェクトにご参画いただける方を募集いたします。
・Linux環境での開発経験。
・bashなどのShell言語およびSQLを用いた開発経験。
・テスト仕様書の作成と実行経験。
・大手企業のグループのサービスに存在するあらゆる情報(ユーザの行動ログ・コンテンツのテキスト・画像など)を活用して、ユーザの嗜好を表現するモデルを作成していただきます。
・機械学習手法の検討から実装、結果の解釈、レポーティングを行っていただきます。
・発足直後のプロジェクトのため、プロジェクトメンバーと議論を交わしながら進めていく想定ですので、活発な議論ができる方を求めております。
・常駐可能であること
・Pythonを用いた機械学習の実務経験
・統計/データマイニング/機械学習などの分析の知識
・大手企業が運営する新卒向けサービスの某エージェント向けのレコメンドシステムの開発をご担当いただける方を新規募集いたします。
・分析者が作ったアルゴリズムを開発要件に落とし込み、システム実装する部分をご担当いただきます。
・常駐可能であること
・SQLを利用した開発経験
・Linux/Shellの開発経験
・Git等のバージョン管理システムの経験
・事業/製品課題を元にした非定型分析の要件整理・共有
・非定型分析の進行管理・コミュニケーション
・分析結果の考察・施策提言
・データマート/モニタリング基盤の構築ディレクション
・SQLの基本的な理解と実務経験
・データ分析と改善提案の実務経験
・各関係者に分かり易く説明出来るコミュニケーション能力
・統計に関する基本的な理解
・GCP上のデータベース(BigTable, DataStore, Spanner)を利用したAPIの開発・運用
・GCP上のサービスを利用したデータベースへのバッチ処理の開発・運用
・Webフロントエンドの開発 (保持スキルに応じて相談)
・インフラ・サーバー・フロントを一気通貫したWebサービスの開発・運用経験
・プログラミングのスキル(Python, Javascript)
・SQLのご経験
・Linuxでのシステム設計・構築・運用のご経験
Web、メール施策のベースとなるレコメンドエンジンを改善するために基礎分析からモデル検証、要件定義、設計、開発まで担当していただく予定。
ただし、ご本人のスキルセットを考慮し、アサイン業務内容(分析系 or 開発系)は適宜調整します。
・常駐可能である
・タスク管理ツール(Backlog, Redmine等)によって自己の進捗を管理できる
【分析】
・データ加工、モデル構築、検証、レポーティングまでの一連の分析サイクル業務経験
・機械学習の基礎知識
・統計学の基礎知識
【開発】
・ShellScript, SQL, Pythonの業務使用経験
・バージョン管理ツール(Git/SVN)業務使用経験
・Linux環境における開発経験(LPICレベル1程度以上の知識)
・詳細設計書、単体テスト仕様書等の開発ドキュメント作成経験
・インターネット広告配信システムにおけるログ収集/集計システムの開発/運用
・レポーティングツールの開発/運用
・大規模データ解析を効率よく行うためのデータ処理基盤、ツールの開発/運用
・Hive、Spark、 AWS Athena、Google Bigquery等 オープンソース、クラウド上問わずデータ処理基盤の調査、活用
・配信最適化ロジック設計/開発、及びデータ分析
・Linux上での開発/運用経験
・AWSを利用したシステム構築業務経験、またはシステムのログ収集/解析業務経験
・Hadoop等の分散データ処理基盤の利用/運用経験
・インターネット広告における配信システムのログ収集/解析業務を学びながら成長していきたい方
※過去に1年以上該当する実務の経験が必要です。
※リーダー経験よりも実務経験、スキルを重要視します。
・データ分析施策のフィジビリティスタディとして、効果測定を行うための試験プロダクトの実装業務にご参画いただける方を募集いたします。
・具体的には、自社のアンケートをWeb化し入力されたデータを学習して最適な式場を推薦できるようにすることを想定しております。
・担当いただくのは、webアプリケーションの設計、実装、テストですが、サーバサイドとフロントどちらも実装可能な方を歓迎します。
・Ruby on Railsを用いた開発経験2年以上
・jquery/Boostrapなど、各種フレームワークを用いたフロントエンド実装経験
・unix系OSを用いた開発経験(ubuntu, CentOSなど)
・gitを用いたチーム開発経験
ビッグデータ分析基盤の設計・構築・運用・QA対応を担当して頂きます。
具体的には、以下のようなコンポーネントを担当していただきます。
-Linux/VMWare ESX環境にてTableau Server,
SPSS Server, Zabbix, JP1/AJS, Oracle Exadata のEnterprise Manager・Oracleクライアント、Python・R言語実行環境、
ハードウェアの購入・保守・設置
-AWS上にてEC2, S3, Lambda, VPC, ストレージゲートウェイ, Squid, HAProxy, Docker
-Google Cloud Platform上にてBigQuery, GCS, GCE
-Python, git, ansible, jenkinsなどを用いた運用プログラム
-ユーザに対するアカウント発行・管理・アクセスコントロールの仕組み
・Linux上でのシステム全体(ネットワーク、OS、ミドル)の環境構築・運用
・shellやpythonでの運用スクリプト開発
・自社サービスにおいて、利用者の過去のログ、資料請求履歴などから
カスタマーの進路属性を推定するバッチ処理及びAPI開発にご参画いただける方を募集いたします。
推定ロジックは専任の担当者が作成しますので、その担当者とやり取りしていただきながら
バッチ処理やAPIの設計、実装(ShellスクリプトもしくはPython)、テスト、リリースをご担当いただきます。
・クラウドに格納された大規模データを基に加工、変数作成処理プログラムの実装を行っていただきます。
※その他演算処理の自動化するための計画、実装業務もあります。
・Python/Java/Shellスクリプト(いずれかの言語がエキスパートで一人で実装が可能である)
・Linux/UNIX上での開発経験2年以上
・AWS, GCPの使用経験 (EC2, Lambda, S3, AppEngineなど)
・SQLの使用経験2年以上(Oracle等からデータ取得)
・インターネットの基本的な知識(プロトコル/サーバー/セキュリティ)
主に下記業務に携わって頂く予定です。
・ゲーム内各指標の自動集計プログラム作成、保守
・ゲームタイトル施策のレポート作成
・Linux環境での開発経験1年以上
・マーケティング業務に興味がある方
・他者とのコミュニケーションが好きな方
・毎日2時間以上ゲームプレイしている方
自社人工知能ブランドのプロダクトにおいてDeep Learningや従来型の機械学習を利用したAPI開発を行っていただける方を募集いたします。
異常検出や画像認識をメインに解析していただきます。
・数学(統計・微積・線形代数)の知識
・機械学習の知識
・Linux環境の利用経験
・機械学習システムのプログラミング経験
・Deep Learningに関する基礎的な知識
・論文を読むことに抵抗が無いこと
・論文の英語が読めること
各サイトで生成される行動ログや、トランザクションデータを集約し、データ利活用を進めているグループにおいて、各種APIの設計、開発および運用をご担当頂きます。
・各種APIサービス、Webアプリケーションの設計、開発、運用。
・データ分析システムの設計、開発、運用。
・ツール開発によるサービス運用の効率化、自動化。
・Webアプリケーションの開発経験
・RDBMSや、KVSなど複数のデータストアの中から、要件に応じて最適なデータストアを選定、設計、構築、実装が可能な方。
・Java, JavaScript, Python のいずれかの言語での開発経験
大規模データを活用したアプリケーション開発に関心がある方
・TB, PBスケールのデータを元にしたアプリケーション開発に関心がある方
・インフラ〜フロントエンドまで幅広い領域の開発経験
・Publicクラウド上でのWebサービス開発経験
・画像認識や自然言語処理によるR&D案件にご参画いただきます。
【具体的な業務内容】
・成果が出ることを目標に、画像データやテキストデータを用いることで検索ロジックを一からつくり上げる取り組みを行っています。現在の検索の欠点を分析しその欠点を補う新たな検索ロジックを考え検索ロジックを実現するためにデータを学習するプログラムを書き、事業側に売り込み、事業にサービスとして組み込むという流れになります。
・ 数学、統計の知識
・機械学習、データマイニングのプログラム経験
・Linuxの操作経験
・pythonによる開発経験
・技術に対し、意欲的に最新の情報をキャッチアップする方
・ 不明な点、分からない点は自ら調べ解決する推進力のある方
・積極的にコミュニケーションを取れる方
・英語のリーディング(論文などを読む為)
・GCPを利用したマネージドクエリサービスを構築します。
・オンプレHadoopからアクセスログなどのデータを取得しGCPに転送し、BigQueryを使って分析できる部分の構築業務を実施していただきます。
・クラウドを利用したインフラ構築・運用経験
・一連の開発フロー(実装〜テストまで)の経験
・自発的に作業に取り組むことが出来ること
・英語ドキュメントを読んで理解できること
・ドキュメント(成果物に対する)作成能力を持っていること。