Imprimer

Concepteur, vision numérique et intelligence artificielle

Date de publication
2021-07-21
Localisation
Bureau de Québec
2740, rue Einstein, Québec, QC, CA G1P 4S4
Type de poste
Temps plein
Identifiant
200802

Quels seront tes défis?

INO recherche un expert désirant appliquer et perfectionner ses talents à titre de concepteur au sein de notre groupe technologique vision numérique et en intelligence artificielle dans des projets variés et des équipes conviviales et stimulantes.

Son rôle est de participer à la création d’innovations technologiques et de propriété intellectuelle par la réalisation de projets stimulants et variés.

Ces projets peuvent être basés sur de la recherche ou des applications clients visant le développement de systèmes de vision intégrant ou non de l’intelligence artificielle.

Les domaines d’applications sont diversifiés, à l’image de nos clients: médical, environnemental, minier, industriel, militaire, astronomique ou aérospatial.

Plus spécifiquement, en tant que membre d’équipes de projets multidisciplinaires en R-D, il aura les responsabilités suivantes :

  • Concevoir et mettre au point des prototypes, composants ou sous-systèmes innovants en vision numérique et IA intégrés à de nouveaux équipements, méthodes ou instruments industriels, expérimentaux ou médicaux;
  • Participer à l’analyse des besoins des clients et de la détermination des spécifications techniques, à l’élaboration de concepts d’opération et d’algorithmes;
  • Développer et intégrer le matériel de capture en vision numérique;
  • Développer et intégrer des systèmes d’annotations en IA;
  • Concevoir les plans de test et de validation associés;
  • Collecter et analyser des données de recherche, et rédiger des rapports;
  • Participer à la coordination technique des projets et à la planification du développement technologique.

Les indispensables

  • Baccalauréat, maîtrise ou doctorat en informatique, en physique ou un génie pertinent à l’emploi;
  • Minimum de 3 ans d’expérience pertinente reliée à l’emploi;
  • Compétences poussées en programmation (C++. Python);
  • Compréhension des phénomènes physiques liés aux capteurs d’images;
  • Capacité à exploiter des capteurs en appliquant des algorithmes traditionnels d’étalonnage, de traitement et de fusion d’images;
  • Capacité à exploiter des algorithmes d’apprentissage profond à l’aide de librairie open-source (ex : PyTorch).

Pour enrichir notre équipe, tu posséderais idéalement les qualités suivantes :

  • Excellentes habiletés communicationnelles et relationnelles;
  • Esprit d’équipe et de collaboration, sens des responsabilités;
  • Autonome, rigoureux et minutieux ;
  • Être orienté vers l’atteinte des objectifs;
  • Posséder une culture d’innovation, exercer un bon jugement dans ses décisions;
  • Maîtrise du français et de l’anglais à l’oral et à l’écrit.

Ce qui nous distingue

Travailler pour INO, c’est faire partie d’une équipe solide et talentueuse qui évolue dans un environnement de haute technologie, là où les idées naissent de gens incroyables, se matérialisent et où la culture donne un sens au mot innovation. Les avantages de travailler avec nous sont nombreux:

  • Travailler à concrétiser l’avant-garde technologique en vision et en optique-photonique
  • Horaire flexible;
  • Salaire compétitif;
  • Excellente gamme d’avantages sociaux;
  • Horaire d’été;
  • Possibilité de télétravail;
  • Environnement de travail plus qu’agréable;
  • Stationnement gratuit; Enclos à vélo
  • Parcours d’autobus à proximité.

Postulez dès maintenant

*Seuls les candidats retenus seront contactés. *L’utilisation du masculin englobe les deux genres et sert uniquement à alléger le texte. *INO souscrit au programme légiféré d’équité en matière d’emploi.

Contact

Le site INO.com utilise des cookies pour améliorer votre expérience en ligne. Si vous continuez à utiliser ce site sans modifier vos préférences de cookies, nous en conclurons que vous marquez votre accord quant à notre utilisation de cookies. Pour en savoir plus ou pour modifier vos préférences de cookies, consultez notre politique relative aux cookies.

En savoir plus