Aymen Khelifi

Aymen Khelifi Email and Phone Number

Co-Founder @ Data for Ethic
Paris, FR
Aymen Khelifi's Location
Paris, Île-de-France, France, France
About Aymen Khelifi

Chef de projet Data • Triple compétence en gestion et coordination de projets Data , Data science et développement informatique• Expérience solide en cadrage, chiffrage, suivi et communication• Maîtrise des problématiques de Data Management et la gouvernance de données • Management d’équipes fonctionnelles et techniques (Data Engineering, consultants BI, MLOPS, Data Scientistes)• Ecoute active des interlocuteurs et bonne capacité de vulgarisation des sujets Data/IT auprès des métiers• Préparation et exécution de réunions (hebdomadaires, COSUI, COPIL, comité technique)• Expert Data en Business Intelligence et Big Data, spécialisé dans les architectures décisionnelles, dans la conception et la mise en œuvre d’entrepôts de données et Datalake • Formation solide en Data science et ingénierie des SI Big data, PhD Lead Technique• Forte expérience en modélisation des données massives et mise en production des projets data sciences. • Formateur certifié en distribution Big Data. Parfaite maîtrise de l’écosystème Hadoop-Spark (DataLab, DataLake). • Expertise en architecture Data science et Big Data : Machine Learning/ Deep Learning, Text Mining (NLP, NLU), méthodologie d’analyse et de modélisation prédictive appliquées au contexte big data. • Réalisation de plusieurs projets Data science/ Big Data industriels chez la société générale, La banque de France, Total, Saint Gobain, SFR, Alliance etc.

Aymen Khelifi's Current Company Details
Data for Ethic

Data For Ethic

View
Co-Founder
Paris, FR
Aymen Khelifi Work Experience Details
  • Data For Ethic
    Co-Founder
    Data For Ethic
    Paris, Fr
  • Data For Ethic
    Co-Founder
    Data For Ethic Aug 2019 - Present
    Île-De-France, France
  • Sg
    Chef De Projet Et Réfèrent Data
    Sg Jul 2019 - Feb 2021
    Courbevoie, Île-De-France, France
    CONTEXTE : Accompagner les équipes métiers des départements liquidité et comptabilité ainsi que l’équipe technique dans la mise en place de plusieurs projets data et data science. Cadrage et pilotage de plusieurs projets data• Cadrer les besoins métiers et rédaction d’expression de besoin • Priorisation des projets et des fonctionnalités attendues avec la coordination de la direction• Préparation des documents internes présentant les solutions techniques en coordination avec les architectes • Préparation et animation de Kickoff et des SteerCo• Participation aux dailys des équipes projets• Animation du comité technique une fois par mois • Participations au comité de suivi hebdomadairement • Management de 10 collaborateurs 5 à temps plein et 5 à temps partiel• Gestion de plusieurs projets et expertise technique sur les implémentations : 1. Détection automatique et correction manuelle des anomalies dans les opérations de trading 2. AIA : "Artificial Intelligence Assesment"3. Traitement des demandes métiers ponctuelles : extraction des données, création de tableau de bordProjet 1 : Détection automatique des anomalies dans les opérations de trading (8 To) et correction des ratios de liquidités• Extraction des données, unification des schémas de données au format jsons • Chargement des données sur le datalake et optimisation de chargement• Implémentation d’une machine exploratrice avec 13 algorithmes non supervisés • Data augmentation : enrichissement des données par des variables artificielles• Mise en place des modules de posttraitement des outliers et de scoring d’anomalies • Etudes statistiques des données et découvertes des patterns d’anomalies• Mise en production des algorithmes scalables sur le datalake • Etc.ENVIRONNEMENT TECHNIQUE : Git, Azure DevOps, AzureML, cloud Azure, Microsoft Planner, JIRA, PySpark, Cloudera, Clustering Deep learning, algorithms, Docker, Apache Oozie, Jira
  • Saint-Gobain
    Chef De Projet Et Référent Data
    Saint-Gobain Sep 2018 - Jul 2019
    Gestion de projet et expertise technique sur certaines développements : 1. Moteur de recommandation de prix CALC : un outil d'aide à la négociation de ventes basé sur le machine learning ensembliste 2. Modélisation de Churn client et estimation de ROI 3. Outil de déploiement automatique des modèles datascience• Proposition d’une architecture Big data pour migrer la production data science de SPSS vers CDSW (cahier d’architecture détaillé) • Mise en place de l’architecture Big Data sur 5 nœuds ensuite une évolution à 40 nœuds (Cloudera) • Réalisation et mise en production de plusieurs POC basés sur les technologies suivantes : XGboost regression quantile, SparkML, Python, HbaseProjet 1 : Moteur de recommandation de prix baptisé CALC • Analyse du besoin, élaboration du plan de charge (ressources, délais) et animation du groupe projet• Identification des différentes sources de données et préparation des données• Mise en place de l’architecture fonctionnelle / logicielle Big Data du projet (architecture Lambda)• Industrialisation du modèle machine Learning dans le cluster Big Data (cluster Cloudera sur AWS)• Conception et développement des API REST pour interroger le modèle de Machine Learning• Gestion des releases et organisation du déploiement avec les différents acteurs (métiers, IHM et DevOps)• Préparation et validation des cahiers de recette et suivi des testsProjet 2 : Modélisation de Churn client et estimation de ROI• Identification des sources de données • Chargement des flux dans le datalake• Analyse statistique des données• Prétraitement des données (Hive, Python, PySpark) • Modélisation Machine Learning avec Random forest • Mise en production du projet sur cloudera o réécriture des scripts sur CDSW avec PySparko planification de batch (CDSW, scheduling)• Industrialisation du projet Churn• Formation des utilisateursENVIRONNEMENT TECHNIQUE : Jira, confluence, CDSW, PySpark, Cloudera, Hbase, Docker, XLdeploy, Jenkins, Angular
  • Totalenergies
    Chef De Projet Data Et Référent Data
    Totalenergies Feb 2016 - Dec 2018
    Gestion des projets et expertise technique sur certains développements, ci-après quelques projets non confidentiels 1. "Incident Analysis" : plateforme d’analyse et de prédiction d’accidents graves et mortels 2. "Robot Pipelines inspection" : Prédiction des anomalies par raclage robotisé3. D’autres projets autour, entre autres, "General Pedictive Platform" a. Prédire la marge sur les produits dérivésb. le prix de pétrole c. prédiction des pannes dans les unités de raffinage Projet 1 : "Incident Analysis" : plateforme d’analyse et de prédiction d’accidents graves • Mise en place d’une architecture Big Data pour les projets data (branche RC, EP et MS)• Élaboration des modèles machine learning pour prédire le niveau de risque d'accident en fonction des anomalies, presque-accidents et des rapports de maintenance (plein texte); croisement entre des données non structurées et des indicateurs de plusieurs sources • Modélisation et implémentation des deux cas d'usage concernant l’analyse des accidents• Mise en relation entre les REX, les accidents et les anomalies remontées par site• Recommandation des mesures à prendre suite à un accident à niveau de risque élevéProjet 2 : "Robot Pipelines inspection" : Prédiction des anomalies par raclage robotisé• Croisement entre les données de capteurs issues des robots d’inspections passées dans des pipelines sur 300 Km entre le Havre et les grands pieds de Paris• Prétraitement des données et enrichissement avec l’open data• Mise en place d’un modèle prédictif des pannes (corrosion, fissure, cassure, bombage…) ; deux modèles : un pour les points critiques et un pour les tronçons critiques• Mise en place d’une application avec ArcGic pour visualiser les résultats ENVIRONNEMENT TECHNIQUE : Jira, Confluence, Azure Data Factory, AzureML, Blob storage, Python, Hive, Sqoop, MongoDB, Service Web REST, TextMining, Semantic extraction, NLP pipeline, Classifier, PySpark, HdInsight, Service Web REST, Hive, Hbase
  • Airbus
    Manger De Projet Data
    Airbus Oct 2015 - Mar 2016
    INTERLOCUTEURS : Responsables Métiers "Product Ligne Mangement", développeurs informatique • Recommandation de composantes d’architecture Big Data pour la partie Data science et BI• Mise en place de deux use-cases métiers autour de la "Product Ligne Mangement" pour réduire le coût de construction des nouveaux appareils (Machine Learning sur un historique de 9 ans) • Gestion d’une équipe de 8 personnes (planification, estimation budgétaire, livrables)• Proposition d’une architecture Big Data compatible avec l’écosystème existant• Mise en place des tableaux de bord métiers avec (Tableau, Spotfire) • Comparaison des modèles ML sur les données et choix d’algorithmes efficaces • Recommandation d’outillage et estimation du coût de la mise en productionENVIRONNEMENT TECHNIQUE : Jira, Splunk, Hortonworks, R, Hive, Tableau software, Spotfire
  • Microsoft
    Formateur Azure Big Data - Azure Ml - Hdinsight
    Microsoft Sep 2015 - Oct 2015
    INTERLOCUTEURS : Consultants de plusieurs ESN Françaises, Freelances. • AzureMLo Introduction to Machine Learning and Azure Machine Learning Studioo Designing a Predictive Analytics Solution with Azure Machine Learningo Monetizing your Machine Learning application with Azure Marketplaceo Azure Machine Learning API services and extensibility scenarios• Azure Stream Analyticso Overview of Azure Stream Analyticso Hands-on-lab configuring Stream Analyticso Using Stream Analytics SQL + Managing Stream Analyticso Programmatic access with REST API
  • Banque De France
    Expert Data Science / Big Data Expert
    Banque De France Mar 2015 - Oct 2015
    INTERLOCUTEURS : Responsables Métiers de la direction Connaissance Client, chef de projet, développeurs informatiqueRÔLE : EXPERT DATA SCIENCE / BIG DATA • Direction Connaissance Client, projet de Lutte contre le blanchiment des capitaux et le financement du terrorisme : migration vers une approche Big data et data science à la place des règles manuelles sur Oracle• Réalisation d’un prototype Big Data qui remplace le système existant (gain : temps de traitement passant de 8 h à 40 minutes). Mise en place de l’architecture. • Modélisation des données, préparation de l’espace de stockage et importation des données puis automatisation des flux. • Implémentation des règles métiers de détection des alertes concernant les opérations suspectes (une dizaine de patterns d’alerte) • Ajout d’un ensemble de règles via des algorithmes ML (Association rules + SVM Classifier) • Ajout des fonctionnalités de paramétrage, rattrapage et extension du modèle. • Proposition d’architecture cible avec une estimation budgétaire pour la migrationENVIRONNEMENT TECHNIQUE : Hortonworks, Python, modèle data science, Hive, Sqoop, Oracle
  • Swisslife Select Bonn
    Big Data Expert
    Swisslife Select Bonn Feb 2015 - May 2015
    INTERLOCUTEURS : Responsables Métiers innovation et communication, chef de projet• Veille concurrentielle de la marque sur les réseaux sociaux :o Positionnement produit/marque vs concurrence. Suivi de l'opinion publique digitale. o Étude de l'emplacement de SwissLife par rapport aux autres groupes d'assurance sur les réseaux sociaux (Axa, Allianz, Generali, Aviva, Mma).o Quelle stratégie de communication suivie par chaque assureur ? Comparaison de la satisfaction clients sur l’assurance vie et l’assurance santé• Taux de réponse Digital et personnalisation• Concurrence des mots liés aux produits assurance vie et santé• Support en best practice pour le cadrage d’applications Big Data à forte valeur ajoutée :o Rétention / Attraction : Modéliser et implémenter le calcul du score churn temps réel innovant. o Acquisition (Lead management) : Développer un module de détection de nouvelles niches o Optimiser le ciblage publicitaire par analyse de l’open data (météo, données calendaires etc.)o Ajouter une fonctionnalité de personnalisation des offres en fonction de l’endroit de connexiono Acheter des leads à partir des comparateurs d’assuranceso Multi-équipement : Mettre en place des modules de personnalisation d’offres en fonction des événements annoncés sur les réseaux sociauxo Modélisation et implémentation des scores d’appétences aux produits en se basant sur des variables interne partir de SI et externe issues l’open dataENVIRONNEMENT TECHNIQUE : Apache Cassandra, Shell, Talend, Python, Scrapy, Git, Jira
  • Sfr
    Consultant Big Data Bi - Bi
    Sfr Nov 2013 - Feb 2015
    Ville De Paris, Île-De-France, France
    INTERLOCUTEURS : Responsables Métier connaissance client, chef de projet, développeurs informatique.• Au sein de la direction connaissance client pôle CRM- Agile• Conception et mise en œuvre d'un Datalab pour la direction CRM • Le Datalab vise la préparation des données pour le calcul des scores, le ciblage marketing et les extractions métiers :o Rédaction des spécifications techniques détailléeso Modélisation du Datalab et cartographie des fluxo Alimentation du Datalab par Sqoop + Test (Rapport de tests de performance)o Industrialisation des alimentations + Optimisation des scripts de calcul et de l’architecture • Mise en place de 14 KPI réseaux (Hive, Impala, CADS, Teradata)o QoS des clients mobiles (taux d’appels coupés, couverture réseaux voix-data etc.)o Compatibilité entre les antennes et les téléphones mobileso Travaux temporaires sur des antennes majoritaires o QoS TV-Box, couverture (4G / 3G / U900)• Ciblage de push mobile à travers l’analyse du comportement client pour l’augmentation de l’audience sur les applications. (Hive, Impala, Cloudera, Teradata,)• Ciblage des campagnes marketing dans un environnement Big Data (R, Hive, Teradata)• Réalisation du projet "Qualification des données marketing et administratives" (Impala)• Responsable de la partie Big data dans le projet FUNEL (transformation des ventes)ENVIRONNEMENT TECHNIQUE : Teradata, Cloudera, Hive, Impala, Sqoop, Python, Oozie, SPSS
  • Sfr Business
    Consultant Big Data
    Sfr Business Jul 2013 - Oct 2013
    INTERLOCUTEURS : Responsables Métiers marketing et connaissance client, chef de projet, développeurs et data scientists.• Proposition d’une application pour la monétisation des données mobiles• Structuration des nouveaux types de données pour des applications métiers (données issues des applications mobiles, TV-Box, géolocalisation, serveurs vocaux etc.)• Révision, formalisation et optimisation des processus et du mode de fonctionnement de l'équipe CRM-Agile• Formation Big Data pour l’équipe CRM-Agile :o Big Data concept and langage (Hadoop, Distributions, MapReduce, HDFS)o Data Interrogation (Hive, Impala, Pig, Jaql), Data analysis (R, Mahout)o Machine Learning: Spark. Streams and visualization tools (Banana, Big Sheet), Divers Big Data technologies (Sqoop, Flume, Oozie etc.)ENVIRONNEMENT TECHNIQUE : Spark, Cloudera, Hive, Impala, Sqoop, Teradata, Python, Oozie, SPSS
  • Sfr Business
    Consultant Big Data Bi
    Sfr Business Apr 2013 - Jul 2013
    INTERLOCUTEURS : Responsables Métier marketing et connaissance client, chef de projet, développeurs et data scientistesRÔLE : CONSULTANT BIG DATA• Automatisation des mesures de performances des campagnes marketing : modélisation et implémentation o Cartographie des flux (à partir du Datalab, Datalake, entrepôt et base de données)o Rédaction des spécifications techniques détailléeso Création d’une base de données (Hive), alimentation et calcul des agrégats.• Révision du code source et migration d’une partie vers une technologie in-memory (réduire le temps de traitement) + Gestion du projet• Industrialisation de l’application• Documentation et formation sur l’applicationENVIRONNEMENT TECHNIQUE : Teradata, Cloudera, Hive, Impala, Sqoop, Oozie, SPSS
  • Cerfrance
    Consultant Big Data
    Cerfrance Oct 2012 - Mar 2013
    INTERLOCUTEURS : Responsables Métier service comptabilité, chef de projet • Identification des cas d’usage métier Big Data chez CER France.• Proposition d’une architecture de pilotage Big Data/ BI cloud full Microsoft pour l’analyse prédictive chez CER France • Conception et mise en œuvre d'un Datalab (Azure SQL Serveur et Hive- HdInsight)• Test de montée en charge de la solution Hdinsgth et comparaison avec SQL Serveur • Mise en place d’un module Machine Learning pour la prédiction des actions à prendre pour augmenter le chiffre d’affaire pour les clients de CER France. • Restitution des données HdInsight dans Excel et PowerBI• Formation des utilisateurs et documentation technique ENVIRONNEMENT TECHNIQUE : AzureML, Azure SQL Serveur, Azure cloud, Power BI, Hdinsgth, Python, Hive, Sqoop, Oracle
  • Microsoft
    Formateur
    Microsoft Oct 2012 - Nov 2012
    Formateur ⦁ AzureML⦁ Introduction to Machine Learning and Azure Machine Learning Studio⦁ Designing a Predictive Analytics Solution with Azure Machine Learning⦁ Monetizing your Machine Learning application with Azure Marketplace⦁ Azure Machine Learning API services and extensibility scenarios⦁ Azure Stream Analytics⦁ Overview of Azure Stream Analytics⦁ Hands-on-lab configuring Stream Analytics⦁ Using Stream Analytics SQL + Managing Stream Analytics⦁ Programmatic access with REST API
  • Swisslife Select Bonn
    Big Data Analyst
    Swisslife Select Bonn May 2012 - Oct 2012
    INTERLOCUTEURS : Responsables Métiers innovation et communication, chef de projet • Veille concurrentielle de la marque sur les réseaux sociaux :o Positionnement produit/marque vs concurrence. Suivi de l'opinion publique digitale. o Étude de l'emplacement de SwissLife par rapport aux autres groupes d'assurance sur les réseaux sociaux (Axa, Allianz, Generali, Aviva, Mma).o Quelle stratégie de communication suivie par chaque assureur ? Comparaison de la satisfaction clients sur l’assurance vie et l’assurance santé• Taux de réponse Digital et personnalisation• Concurrence des mots liés aux produits assurance vie et santé• Support en best practice pour le cadrage d’applications Big Data à forte valeur ajoutée :o Rétention / Attraction : Modéliser et implémenter le calcul du score churn temps réel innovant. o Acquisition (Lead management) : Développer un module de détection de nouvelles niches o Optimiser le ciblage publicitaire par analyse de l’open data (météo, données calendaires etc.)o Ajouter une fonctionnalité de personnalisation des offres en fonction de l’endroit de connexiono Acheter des leads à partir des comparateurs d’assuranceso Multi-équipement : Mettre en place des modules de personnalisation d’offres en fonction des événements annoncés sur les réseaux sociauxo Modélisation et implémentation des scores d’appétences aux produits en se basant sur des variables interne partir de SI et externe issues l’open dataENVIRONNEMENT TECHNIQUE : Apache Cassandra, Shell, Talend, Python, Scrapy, Git, Jira
  • Allianz
    Chief Data Scientist
    Allianz Nov 2011 - May 2012
    Ville De Paris, Île-De-France, France
    INTERLOCUTEURS : Responsables Métiers modélisation de risque, chef de projet Contexte : 3 millions de contrats d’assurance en France dont 150 contrats par an qui présentent 20% des montants versés (sinistres graves avec un montant versé >= 150 000€). La mission consiste à créer un modèle de classification capable de détecter en avance les foyers ayant un grand risque de faire partie des 150 contrats, et ceci en se basant sur un historique de 5 ans.Projet : Elaboration de la démarche de Data Management et développement de nouveaux algorithmes statistiques d’analyse prédictive• Exploration des données et comparaison des modèles, préconisation d’enrichir les données avec l’open data gratuit par exemple : o les facteurs climatiques par adresse du contrat (température, humidité, pluviosité, variations importante des températures qui abiment les installations électriques)o Proximité des infrastructures incendiées + Distance de l'infrastructure anti-incendie• Collecte des informations internes chez Allianz comme :o Valeur du secteur et du bien + Consommation énergétique + Ancienneté des bâtiments• Développement sous R des nouveaux algorithmesENVIRONNEMENT TECHNIQUE : Scrapy, MongoDB, Python, Talend, Shell, Git, Jira, confluence
  • Universal Music Group
    Big Data Specialist
    Universal Music Group Jun 2011 - Nov 2011
    Ville De Paris, Île-De-France, France
    Data scientiste (Recommendation system ) Juin 2011 – Novembre 2011 (6 mois)⦁ Rédaction des spécifications techniques détaillées⦁ Algorithme de recommandation musicale basé sur le profil Facebook⦁ Accostage des flux de données ⦁ Création d'une base de données⦁ Recueillir des informations⦁ Modèle de recommandation alternative + Test du système⦁ Industrialisation de la solutionENVIRONNEMENT TECHNIQUE (Python, MongoDB, Oracle, Shell, Talend , Git, Confluence )
  • L'Oréal
    Big Data Engineer
    L'Oréal Mar 2011 - Jun 2011
    Ville De Paris, Île-De-France, France
    INTERLOCUTEURS : Responsables connaissance client • Déterminer les opportunités open data dans le contexte de L'OREAL • Identification de nouveaux cas d’usage en utilisant l’open data • Rédaction de spécifications fonctionnelles • Réalisation de deux cas d’usage proposés • Industrialisation des deux cas d’usages• Mise en place d’un cas d’usage autour de la veille concurrentielle sur deux produits• Présentation des résultats et chiffrage de la mise en production ENVIRONNEMENT TECHNIQUE : Python, PostgreSQL, Scrapy, Shell, Git, Jira.
  • L'Equipe
    Data Scientiste
    L'Equipe Jan 2011 - Mar 2011
    Ville De Paris, Île-De-France, France
    INTERLOCUTEURS : Responsables connaissance client • Analyse du parcours client et mise en place d’un système de recommandation • Validation de la compréhension du besoin • Enumération des données nécessaires pour l’analyse du parcours client • Extraction des fichiers à partir des serveurs de l’équipe.fr• Import des données de navigation dans un datalake • Analyses statistiques préliminaires sur les données • Analyse de gros fichiers logs en utilisant des techniques data science : o association rules, o clustering, classification Big Datao Analyse des données textuelle NLPo caractériser le comportement de navigation sur le site l’équipe.fr• Analyse avancée des données • Mise en place d’un système de recommandation • Evaluation des modèles de recommandation par contenu et collaboratif • Développement de quelques tableaux de bords pour tester les résultats ENVIRONNEMENT TECHNIQUE : Cloudera, Java, R, R-shiny, PowerBi, PostgreSQL, Shell, Git, Jira.
  • University Of Cologne
    Data Scientiste Senior
    University Of Cologne Sep 2009 - Dec 2010
    Région De Cologne Et Bonn
    INTERLOCUTEURS : Responsables Métiers documentaliste et linguistes • La numérisation des bibliothèques et de l’Open Data (Hadoop 1.0, Java/ XML, TextMining)• Mapping entre Open Data et données numériques• Clustering de données textuelles (Mahout, XML, API Java Office, Rapid Miner)o Conception et implémentation d’une base des données pour gérer les données et les métadonnées (Java)o Préparation des données sous forme matricielle et analyse statistique (R)o Visualisation des résultats (nuage de mots, graphes statistiques) (Java)o Comparaison de plusieurs méthodes de clustering (Java, Mahout)o Rédaction de la documentation technique du projet• Solution Big data d’analyse statistique des données textuelleso Etude et comparaison des solutions existantes o Test des modules spécifiques dans Big Insight, Hadoop et Mahouto Industrialisation de la solutionENVIRONNEMENT TECHNIQUE : IBM Big Insight, Hadoop, Mahout, , API Java Office, Rapid Miner, R, R-shiny, Perl, Java, Shell, PostgreSQL, SQL Serveur, Git
  • Laboratoire Lalic
    Ingénieur Informatique
    Laboratoire Lalic Sep 2008 - Aug 2009
    Ville De Paris, Île-De-France, France
    • Participation à plusieurs projets CNRS et européen dans le laboratoire• Prendre en charge 2 projets comme développeur principal et participation à des PoCs et études de faisabilité dans le cadre de réponse à des appels d’offre de projets nationaux et européens • Mise en place d’un premier module de collecte et analyse des données textuelles sur les réseaux sociaux (Tweeter, Facebook et des sites d’opinions).o Conception, implémentation du module o Test, recette et déploiement dans un hub de crowling o Le module a été exploité par plusieurs chercheurs dans le cadre de la création de corpus d’études de marques, discours politiques et études sociologiques.• Développement du deuxième module d’extraction des événements économiques et personnels à partir des réseaux sociaux/Web• Conception et développement d’une plateforme globale d’indexation sémantique des données issues du Web 2.0 et du Web socialo Etude de l’état de l’art des méthodologies d’indexation et d’extraction des informationso Conception et mise en place de plusieurs bases de données pour stocker les données collectées et les résultats d’analyseo Développement de plusieurs modules de collecte automatique des données sur le Web (API Java Facebook, Tweeter4J)o Construction d’ontologies pour l’organisation des connaissances dans un domaine (OWL, XML) + Mise en place d’une base de connaissanceo Conception et implémentation de quatre modules de la plateforme d’indexation sémantique• Principaux livrableso Plateforme opérationnelle d’indexation sémantique• Interfaces graphique en java + Documentations techniques,• Script Perl de nettoyage et d’extraction d’informations (expressions régulières)• Deux nouvelles mesures de similarité entre les événements • Documentation techniques des modules développés + Base de données + Interfaces WebENVIRONNEMENT TECHNIQUE : R, R-shiny, Perl, Java, Java EE, Shell, php, css, PostgreSQL, SQL Serveur, MongoDB, Ms Project, Git
  • Larodec
    Data Scientiste
    Larodec Feb 2006 - Aug 2006
    • Conception et développement d’un classifieur des événements journalistiques sur l’AFP.COM• Modélisation et développement des modules suivants :o Module de prétraitement des données : nettoyage, standardisationo Module de classification des données : algorithme de comparaison entre plusieurs méthodes de classification (Arabe de décision, classificateur bayésien, SVM etc.)o Module d’affichage des résultats pour le meilleur classificateur.o Module de résumé automatique de la presse (vocal)• Module pour afficher les résultats• Etat de l’art des méthodes utilisées dans ce domaine• Principaux livrables• Base de données, les modules développés, rapports• Module de prétraitement des données, de classification, d’affichage des résultats, de résumé vocal automatique ENVIRONNEMENT TECHNIQUE : Java, R, R-shiny, Appache Solr, NLP, machine Learning, IBM Rational Software Architect (RSA), WEBSPHERE SERVER, Git, Ms Project
  • Sncft
    Développeur Informatique
    Sncft May 2005 - Dec 2005
    Modeling and development of a Muti-cameras manger (an application that manages 16 CCTV Cameras) (Java script, Mysql, Java)Development of a cost preaching module (cost accounting) (Java).

Aymen Khelifi Education Details

Frequently Asked Questions about Aymen Khelifi

What company does Aymen Khelifi work for?

Aymen Khelifi works for Data For Ethic

What is Aymen Khelifi's role at the current company?

Aymen Khelifi's current role is Co-Founder.

What schools did Aymen Khelifi attend?

Aymen Khelifi attended Université Paris-Sorbonne, Université De Tunis.

Not the Aymen Khelifi you were looking for?

Free Chrome Extension

Find emails, phones & company data instantly

Find verified emails from LinkedIn profiles
Get direct phone numbers & mobile contacts
Access company data & employee information
Works directly on LinkedIn - no copy/paste needed
Get Chrome Extension - Free

Aero Online

Your AI prospecting assistant

Download 750 million emails and 100 million phone numbers

Access emails and phone numbers of over 750 million business users. Instantly download verified profiles using 20+ filters, including location, job title, company, function, and industry.