Filtrer
Rayons
- Littérature
- Jeunesse
- Bandes dessinées / Comics / Mangas
- Policier & Thriller
- Romance
- Fantasy & Science-fiction
- Vie pratique & Loisirs
- Tourisme & Voyages
- Arts et spectacles
- Religion & Esotérisme
- Entreprise, économie & droit
- Sciences humaines & sociales
Données
-
Voyage au bout de l'IA : Ce qu'il faut savoir sur l'intelligence artificielle
Axel Cypel
- De Boeck Supérieur
- Informatique
- 24 Octobre 2023
- 9782807361652
La démocratisation sans pareille des IA génératives d'images et de textes a rappelé, dans un troublant mélange d'engouement et d'inquiétude, la réalité de l'intelligence artificielle - ou plutôt que l'intelligence artificielle était une réalité. Ces merveilles technologiques appellent à coup sûr des lendemains qui chantent pour les géants du numérique, mais peut-être aussi des lendemains qui déchantent pour des professionnels en voie de déclassement intellectuel face à des dispositifs de plus en plus performants.C'est là qu'il faut raison garder, car ces IA ne forment, en réalité, ni une rupture ni un saut conceptuel, simplement la suite naturelle de la numérisation de nos vies, engagée à grande vitesse. Qu'il ambitionne de la mettre à son service ou qu'il s'agisse, pour le lecteur, de mieux se familiariser avec ses principaux concepts (data, modèles,algorithmes, outillage en entreprise, éthique), ce livre lui propose de dégager l'IA de sa gangue de mythes pour le faire parvenir à une vision techniquement juste et informée des impacts pluriels de cette technologie. Car plus que jamais, il devient urgent de comprendre ce que sont ces outils, c'est-à-dire ce qu'est l'IA qui les a formés, son mode de fonctionnement, ses limites, ses enjeux... afin de garder le contrôle.
-
Un tour d'horizon complet de la mise en oeuvre de SQL pour tous vos développements
Ce nouveau livre de la collection " Pour les Nuls" va vous donner en quelque 400 pages toutes les connaissances qui vous permettront de maîtriser SQL et de construire des requêtes fiables et puissantes.SQL (Structured Query Language) est un langage qui permet de construire de puissantes bases de données relationnelles. Vous apprendrez toutes les techniques pour concevoir et administrer une base de données, et même à créer des bases de données Internet.Au programme de ce livre : Les bases de données relationnelles, les composantes de SQL, les bases de données relationnelles multitables, manipuler les données, les opérateurs relationnels, les requêtes récursives, sécuriser les bases de données, protéger les données, ODBC et JDBC, SQL et Internet, SQL en Intranet, Dynamic SQL. -
Les outils de la conformité RGPD et du DPO : S'organiser pour protéger les données personnelles de l'entreprise
Fabrice Mattatia
- Eyrolles
- 8 Février 2024
- 9782212610802
Le RGPD ne précise pas « comment » atteindre et gérer la conformité en entreprise. Il ne spécifie pas le fonctionnement des outils qu'il exige (registre, etc.). Des offres commerciales clé en main existent, et des consultants prospèrent sur ce créneau, mais comment s'y retrouver ? Quant à l'éventuel DPO (Data Protection Officer, Délégué à la protection des données), doté d'un statut protecteur spécifique, mais pas vraiment « salarié protégé » au sens du droit du travail français, quels sont exactement ses pouvoirs ? Quelle formation, quel niveau dans la hiérarchie, quelle lettre de mission ? Quels outils de travail doit-il inventer pour mener à bien sa mission ? L'ouvrage expose les méthodes de travail et les mesures organisationnelles à mettre en place pour atteindre et gérer la conformité au RGPD. Si un DPO est nommé, l'ouvrage détaille son statut et son travail opérationnel.
-
Modélisation des bases de données
Christian Soutou, Frédéric Brouard
- Eyrolles
- Noire
- 6 Octobre 2022
- 9782212050998
Concevoir une base de données à l'aide d'UML ou d'un formalisme entité-association
S'adressant aux architectes logiciels, analystes, développeurs et étudiants, cet ouvrage explique comment créer un diagramme conceptuel pour concevoir une base de données SQL optimisée. La démarche décrite est indépendante de tout éditeur de logiciel et transposable, quel que soit l'outil de conception choisi.
Le livre décrit d'abord l'élaboration d'un modèle conceptuel à l'aide de règles de validation et de normalisation.
Les mécanismes de dérivation vers un schéma relationnel sont clairement commentés. Le modèle peut être ensuite optimisé avant l'écriture des scripts SQL de création des tables, index et contraintes. La dernière étape consiste à définir des vues. L'ouvrage se clôt par une étude comparative des principaux outils de modélisation sur le marché.
En grande partie réécrite pour prendre en compte les formalismes entité-association tels que Merise ou Barker, cette cinquième édition est commentée par des experts indépendants. Émaillée d'une centaine de schémas et d'illustrations, elle est complétée par 30 exercices inspirés de cas réels.
À qui s'adresse ce livre ?
Aux étudiants en IUT, master et écoles d'ingénieur, ainsi qu'à leurs professeurs
Aux professionnels souhaitant s'initier à la modélisation de bases de données
À tous les concepteurs de bases de données -
#digital : le référencement ; ce que Google veut
Benjamin Thiers, Julien Ringard
- Studyrama
- # digital
- 13 Janvier 2023
- 9782759050543
Vous cherchez un produit sur Internet ?
Vous n'avez probablement scrollé vers le bas de la page. Vous n'êtes à coup sûr pas allé sur la deuxième page de votre moteur de recherche préféré.
Non, comme l'immense majorité des internautes vous avez arrêté votre choix parmi les quatre ou cinq premiers résultats proposés par un moteur de recherche.
Se positionner en tête de liste d'un moteur comme Google est donc stratégique pour tout site web, car c'est à ces positions que l'on peut capter une audience, interagir avec elle et la convertir en prospects ou clients.
Mais comment certains sites ont-ils réussi à atteindre ces positions si convoitées ?
Se retrouver en tête des résultats pour des expressions concurrentielles n'est qu'exceptionnellement le fruit du hasard. Répondre aux critères de pertinence de google (et au passage de tous les autres moteurs) est un métier à part entière, très demandé dans une économie qui se digitalise toujours plus.
Ce livre a pour vocation de vous initier au référencement et vous permettre d'appréhender les enjeux et grands principes à l'œuvre dans le Search Engine Marketing. -
Manuel de datavisualisation ; méthodes, cas pratiques
Jean-marie Lagnel
- Dunod
- Hors Collection
- 20 Janvier 2021
- 9782100822553
La datavisualisation est l'art de représenter des données, parfois complexes, sous formes graphiques pour les rendre plus claires et lisibles. Elle est largement utilisée par les médias et les entreprises pour optimiser leur communication, interne ou externe. Enrichi à l'occasion de cette nouvelle édition, destiné aux étudiants comme aux professionnels, ce manuel aborde toutes les étapes, du brief à la livraison, de la conception et de la réalisation d'une datavisualisation, qu'elle soit print ou animée. Il vous permet d'entrer dans l'univers de la visualisation de données, de découvrir les ressources disponibles, d'acquérir les fondamentaux du design d'information et de les mettre en pratique, à travers de nombreux exemples, études de cas et témoignages d'acteurs reconnus de ce domaine.
-
SQL par l'exemple : la pratique professionnelle des bases de données
Sylvain Berger, Cédric Cassagne, Cédric Chaissac, René Rampnoux
- ELLIPSES
- 7 Juin 2022
- 9782340070912
Cet ouvrage allie pédagogie et expérience professionnelle pour proposer : De la théorie, qui sert de cours, afin de mieux comprendre les bases ;Des exercices d’entraînement dont les corrigés sont accessibles sur www.sqlparexemple.frUne mise en pratique professionnelle.
-
Gouverner par les données ? pour une sociologie politique du numérique
Anaïs Theviot
- ENS Éditions
- 14 Mars 2023
- 9791036205989
Cet ouvrage est une invitation à entrer dans la boîte noire des algorithmes, non pas d'un point de vue technique, mais de sociologie politique. La multiplication des données disponibles en ligne, couplée au progrès de l'intelligence artificielle, ont-ils des effets sur les manières de gouverner ? Les algorithmes peuvent-ils « prédire » les comportements des citoyens ? Comment sont fabriqués ces algorithmes, dits prédictifs, et par qui ? Sont-ils neutres et objectifs ? Quels sont les enjeux sociaux, éthiques et politiques, liés à l'exploitation des données ? Et quelles sont les stratégies commerciales et marchandes à l'oeuvre ? Peut-on encore protéger nos données ? Derrière l'exploitation des données, il y a bien des visions du monde. Il s'agit alors de penser l'algorithme comme un objet politique et social, produit par des acteurs et issu de commandes privées et désormais aussi publiques. Ces lignes de codes et de calculs complexes ne peuvent être dissociées de leurs conditions de production : elles sont encastrées dans un ensemble organisationnel et professionnel spécifique et portées par des intentions et volontés politiques. À travers une série d'études de cas et l'apport d'enquêtes empiriques poussées et inédites, ce volume permet de saisir en contexte comment sont utilisées nos données et quelles sont les influences possibles sur les modes de gouvernance et les prises de décision. La force de cet ouvrage, à la croisée de la sociologie économique, du droit, des sciences politiques et de l'informatique, est de poser les bases d'une sociologie politique des données et du numérique, visant à dépasser et déconstruire les mythes et les croyances véhiculées par le big data.
-
PostgreSQL : Architecture et notions avancées
Guillaume Lelarge, Julien Rouhaud
- Éditions D-BookeR
- 21 Novembre 2023
- 9782822711258
Pour maîtriser PostgreSQL, rien de mieux que de comprendre son fonctionnement interne. C'est ce que vous proposent Guillaume Lelarge et Julien Rouhaud, tous deux contributeurs majeurs de PostgreSQL, avec ce livre sans équivalent, pas même en anglais. Dans un style clair et précis, ils vous expliquent en détail la mécanique de ce puissant système de gestion de bases de données open-source, vous aidant ainsi à en comprendre toutes les subtilités et donc à mieux l'administrer, le paramétrer, le superviser... en un mot à mieux l'utiliser.
Sa lecture ne requiert pas de connaissances avancées de PostgreSQL, ni la maîtrise préalable d'un autre moteur de bases de données. En revanche, il est préférable que vous soyez à l'aise avec le fonctionnement d'un système d'exploitation comme Linux. Une connaissance modérée du langage SQL sera un plus.
Cette cinquième édition, entièrement revue et complétée, se fonde sur la version 16 de PostgreSQL (septembre 2023).
Sommaire :
1. Instance
2. Fichiers
3. Contenu physique des fichiers
4. Architecture des processus
5. Architecture mémoire
6. Protocole de communication
7. Gestion des connexions
8. Gestion des transactions
9. Gestion des objets
10. Planification des requêtes
11. Sauvegarde et restauration
12. Réplication
13. Statistiques d'activité
14. Collecte et traitement des traces
15. Maintenance
16. Sécurité -
Les data sciences en 100 questions/réponses
Younes Benzaki
- Eyrolles
- Blanche
- 1 Octobre 2020
- 9782212331981
Un livre à la fois théorique et pratique
Cet ouvrage a pour ambition de couvrir un large spectre du domaine des data sciences. Il va plus loin qu'un simple tour sur les algorithmes d'apprentissage automatique et s'attaque aux autres aspects, malheureusement négligés mais fondamentaux pour tout data scientist :
concepts généraux mais poussés, dont la maîtrise est indispensable ;
algorithmes d'apprentissage automatique les plus connus ;
aspects liés à l'exploration des données ;
mesures de performances et d'autres métriques utilisées par les algorithmes ;
différents concepts fondamentaux en mathématiques à connaître pour mieux explorer et comprendre les données ;
notions importantes des big data ;
études de cas pratiques en langage Python.
La première partie de ce livre est théorique et adopte un format questions/réponses qui présente plusieurs avantages, dont la possibilité pour le lecteur de lire distinctement chacune des questions pour parfaire son savoir. Un autre point fort de cette structure est qu'elle incite à entrer dans un dialogue. Ainsi, grâce aux questions posées, le lecteur est poussé vers une réflexion où il confronte ses réponses à celles données par le livre.
La deuxième partie est pratique et propose deux exemples d'implémentation de modèles d'apprentissage automatique. Vous y trouverez des codes écrits en Python et un aperçu de différentes difficultés que peut rencontrer un spécialiste lors de l'exercice de son métier.
À qui s'adresse cet ouvrage ?
Le présent ouvrage est adapté à toute personne ayant une certaine maîtrise de la data science et du Machine Learning. Il aidera notamment à se rappeler des concepts importants, mais suppose que le lecteur soit initié sur le sujet. Il sera particulièrement utile à ceux qui veulent se préparer pour un concours, un examen ou un entretien. -
Maîtrisez l'utilisation des technologies Hadoop
Juvénal Chokogoue
- Eyrolles
- Blanche
- 7 Juin 2018
- 9782212650693
Le manuel d'apprentissage de référence
Cet ouvrage est un manuel d'apprentissage technique qui a été rédigé pour toute personne souhaitant développer des compétences sur une ou plusieurs technologie(s) de l'écosystème Hadoop. Il permet d'utiliser de façon professionnelle 18 technologies clés de l'écosystème Hadoop : Spark, Hive, Pig, Impala, ElasticSearch, HBase, Lucene, HAWQ, MapReduce, Mahout, HAMA, Tez, Phoenix, YARN, ZooKeeper, Storm, Oozie et Sqoop.
L'ouvrage permet d'initier les débutants pour les emmener vers une utilisation professionnelle de ces technologies. Pour faciliter la compréhension de l'ouvrage, chaque chapitre s'achève par un rappel des points clés et un guide d'étude qui permettent au lecteur de consolider ses acquis. Des compléments web sont également disponibles en téléchargement sur le site www.editions-eyrolles.com/dl/0067478.
Au fil de la lecture de cet ouvrage, vous allez comprendre les approches conceptuelles de chacune de ces technologies pour rendre vos compétences indépendantes de l'évolution d'Hadoop. Vous serez finalement capable d'identifier les portées fonctionnelle, stratégique et managériale de chacune de ces technologies.
À qui cet ouvrage s'adresse-t-il ?
Aux consultants BI/big data, data scientists, chargés d'études et chefs de projets data
Aux étudiants désireux de s'orienter vers le big data
Plus généralement, à tout professionnel souhaitant prendre le virage du big data ou souhaitant valoriser les données de son entreprise -
Bases de données orientées graphes avec Neo4j ; manipuler et exploiter vos bases de données orientées graphes
François-xavier Bois, Amine Lies Benhenni
- Eyrolles
- Blanche
- 25 Février 2016
- 9782212169669
Ces dernières années, les besoins relatifs au traitement des données ont évolué à un rythme soutenu. Les sites web aux millions d'utilisateurs (réseaux sociaux, plates-formes de diffusion de contenus) sont à l'origine de l'essor de la plus dynamique des familles de moteurs de données : le NoSQL.
Une base de données optimisée pour le big data
Parmi les bases de données NoSQL, celles orientées "graphes" connaissent un succès fulgurant du fait de leur souplesse et de leur évolutivité extrême. Ne reposant sur aucun schéma, un graphe peut accepter de nouveaux flux de données sans nécessiter d'interventions lourdes. A l'heure où les sociétés ont compris que la fusion de leurs silos de données (CRM, ERP, Web, etc.) est une condition sine qua non pour créer de la valeur (solutions d'intelligence prédictive, moteurs de recommandation), cette propriété du graphe se révèle essentielle.
En considérant les relations entre objets comme des données de premier ordre, de nouvelles perspectives d'exploration et d'analyse apparaissent et favorisent la découverte d'informations inédites. L'absence de barrières logiques ouvre également la porte à des modalités d'exploitation de la donnée en profondeur, sans nuire aux performances. Installés depuis de nombreuses années au coeur des infrastructures des géants du Web (Google, Facebook, Linkedln), les graphes sont désormais accessibles au plus grand nombre grâce à l'émergence des moteurs de graphes et notamment au leader du domaine : Neo4j.
Un ouvrage de référence sur Neo4j
Le présent ouvrage s'adresse à tous les publics confrontés au volet data d'un projet informatique : développeurs, DSI, directeurs techniques, chefs de projets, data miners et data scientists. Son objectif majeur est de vous aider à identifier les projets informatiques qui gagneront à mettre en oeuvre un graphe.
Après une introduction au concept de graphe et une présentation de Neo4j et de son langage de requête (Cypher), le présent ouvrage illustre à l'aide d'exemples concrets la puissance des graphes pour traiter des problèmes aussi pointus que la recommandation et l'analyse de réseaux sociaux. Les grandes étapes d'un projet data-driven reposant sur le graphe sont illustrées de la conception à la mise en place de modèles prédictifs, en passant par l'ingestion des données et l'analyse.
À qui s'adresse cet ouvrage ?
Aux administrateurs de bases NoSQL de type graphe.
Aux développeurs et architectes, pour mettre en pratique les concepts avec Neo4j.
Aux data scientists qui trouveront avec les graphes un outil complémentaire pour concevoir leurs modèles. -
Data science : fondamentaux et études de cas
Eric Biernat, Michel Lutz
- Eyrolles
- Blanche
- 15 Octobre 2015
- 9782212315332
Nous vivons une époque très excitante, qui ramène l'analyse de données et les méthodes quantitatives au coeur de la société. L'aboutissement de nombreux projets de recherche, la puissance de calcul informatique disponible et des données à profusion permettent aujourd'hui d'incroyables réalisations, grâce au travail des data scientists.
Un livre de référence pour les data scientists
La data science est l'art de traduire des problèmes industriels, sociaux, scientifiques, ou de toute autre nature, en problèmes de modélisation quantitative, pouvant être résolus par des algorithmes de traitement de données. Cela passe par une réflexion structurée, devant faire en sorte que se rencontrent problèmes humains, outils techniques/informatiques et méthodes statistiques/algorithmiques. Chaque projet de data science est une petite aventure, qui nécessite de partir d'un problème opérationnel souvent flou, à une réponse formelle et précise, qui aura des conséquences réelles sur le quotidien d'un nombre plus ou moins important de personnes.
Éric Biernat et Michel Lutz proposent de vous guider dans cette aventure. Ils vous feront visiter les vastes espaces de la data science moderne, de plus en plus présente dans notre société et qui fait tant parler d'elle, parfois par l'intermédiaire d'un sujet qui lui est corollaire, les big data.
Des études de cas pour devenir kaggle master
Loin des grands discours abstraits, les auteurs vous feront découvrir, claviers à la main, les pratiques de leur métier de data scientist chez OCTO Technology, l'un des leaders français du domaine. Et vous mettrez également la main à la pâte : avec juste ce qu'il faut de théorie pour comprendre ce qu'impliquent les méthodes mathématiques utilisées, mais surtout avec votre ordinateur personnel, quelques logiciels gratuits et puissants, ainsi qu'un peu de réflexion, vous allez participer activement à cette passionnante exploration !
À qui s'adresse cet ouvrage ?
Aux développeurs, statisticiens, étudiants et chefs de projets ayant à résoudre des problèmes de data science.
Aux data scientists, mais aussi à toute personne curieuse d'avoir une vue d'ensemble de l'état de l'art du machine learning. -
Conception d'algorithmes ; 150 exercices corrigés
Marc Guyomard, Patrick Bosc, Laurent Miclet
- Eyrolles
- 7 Janvier 2021
- 9782212455595
La conception des algorithmes : une science !
L'algorithmique est l'art et la science de concevoir des algorithmes corrects et efficaces. Pour beaucoup d'informaticiens, c'est l'aspect artistique qui prédomine : on cherche l'idée lumineuse, la structure cachée, la réponse astucieuse. Mais la conception des algorithmes est d'abord une science dont il faut posséder les bases et les techniques avant d'exprimer sa créativité. Ce livre invite le lecteur à une approche rigoureuse de la construction d'algorithmes. Il explique comment la même idée peut se retrouver dans plusieurs algorithmes correspondant à des problèmes différents. Il donne les outils pour analyser rationnellement un problème, le classer dans une famille de méthodes et produire une solution exacte.
Un manuel de référence sur la construction raisonnée des algorithmes
Dans chaque chapitre de ce livre, les bases théoriques et techniques sont rappelées et illustrées par des exemples. On y trouve ensuite un grand nombre d'exercices, accompagnés d'une correction minutieuse et complète. De la sorte, on y voit comment une démarche rationnelle permet d'atteindre une solution, exacte par construction, à travers une grande variété de cas. Après des rappels sur le raisonnement, les structures de données et la complexité, le livre parcourt les grandes méthodes de construction d'algorithmes : invariants, récursivité, essais successifs, méthodes PSEP, algorithmes gloutons, diviser pour régner, programmation dynamique. Au total, près de 150 exemples d'algorithmes sont ainsi analysés et construits rigoureusement.
Cet ouvrage, pour sa troisième édition, a été entièrement revu et corrigé. Nombre d'exercices ont été remaniés, certains assez largement, en visant une meilleure gradation des difficultés et une argumentation plus complète.
À qui s'adresse ce livre ?
o Aux étudiants et enseignants en science informatique
o Aux ingénieurs, enseignants-chercheurs, informaticiens et industriels
La 1re édition de Conception d'algorithmes a été finaliste du prix Roberval 2017. -
Gestion de la relation client (édition 2005)
Lefebure/Venturi
- Eyrolles
- Solutions d'entreprise
- 7 Juillet 2011
- 9782212850253
Mieux identifier et fidéliser ses clients grâce aux outils de CRM
Destiné aux décideurs, aux responsables fonctionnels (marketing, commercial) et aux chefs de projets informatique chargés de la mise en place de solutions CRM (Customer Relationship Management), cet ouvrage s'est imposé comme la référence en langue française sur la gestion de la relation client.
Il explique en détail les techniques marketing utilisées pour mieux Identifier, cibler et fidéliser ses clients, et dresse un panorama des solutions disponibles : techniques et outils de segmentation et de scoring, de datawarehouse et de dataminlng, de gestion des campagnes marketing, d'automatisation des ventes, de gestion du service client, de personnalisation de sites Web, etc.
Retours d'expérience et critères de réussite des projets CRM
Dans cette nouvelle édition, les auteurs tirent les leçons de plusieurs années marquées par la démesure et par un taux d'échec élevé dans les projets de CRM. ils proposent une démarche pragmatique de conduite de projet en identifiant précisément les facteurs de risque et les critères de réussite, et en mettant l'accent sur le contrôle du retour sur investissement. Cette deuxième édition propose également une analyse actualisée de la stratégie des différents acteurs du marché, qu'il s'agisse des éditeurs d'outils spécialisés, des éditeurs de suites CRM ou ERP (Siebel, Peoplesoft, SAP, Oracle...) ou du dernier venu sur ce secteur, Microsoft. -
Neo4j : des données et des graphes Tome 2 ; déploiement
Sylvain Roussy, Nicolas Rouyer, Nicolas Mervaillie
- Éditions D-BookeR
- 13 Décembre 2017
- 9782822706001
Vous avez déjà une idée de ce qu'est Neo4j et de son mode de fonctionnement, peut-être même avez-vous déjà fait quelques tests. La question maintenant est de savoir comment le mettre en oeuvre dans un contexte de production. C'est ce que vous explique ce livre.
Conçu sous la forme originale d'un dialogue entre les différents membres d'une équipe technique spécialisée dans la manipulation de données fortement connectées, il s'efforce de répondre à toutes les questions qu'on peut se poser lors de la mise en place d'un projet, de la preuve de concept jusqu'à la maintenance et la sécurisation. Des annexes, ainsi que de multiples encadrés au fil du récit viennent compléter certains aspects techniques.
Vous y apprendrez :
à analyser un problème en termes de graphe
à intégrer Neo4j dans un système déjà existant et interagir avec d'autres bases de données
à importer ou exporter des données
à garantir la disponibilité et la sécurité des données
à surveiller et maintenir Neo4j
Si vous débutez avec Neo4j, nous vous recommandons de commencer par le volume I. Prise en main.
"C'est sous forme théâtrale que j'ai choisi de relater le déploiement de Neo4j, car n'est-ce pas finalement ce à quoi ressemble notre vie professionnelle ? Un petit théâtre." - Sylvain Roussy
"Le futur de Neo4j est plein d'innovation et de possibilités : Mervaillie, Roussy et Rouyer ont écrit un ouvrage abouti qui vous aidera à en tirer tout le potentiel." - Jim Webber, Chief Scientist de Neo4j, Inc. -
SAS ; introduction au décisionnel : du data management au reporting
Sébastien Ringuedé
- Eyrolles
- Blanche
- 11 Avril 2019
- 9782212820249
Une bible magistrale sur SAS
Ce livre présente le socle de connaissances communes à tous les utilisateurs de SAS, le progiciel d'informatique décisionnelle le plus utilisé au monde. Il traite tout particulièrement des fonctionnalités de Base SAS, module au coeur du système SAS. Pédagogique et complet, il peut servir aussi bien de guide d'initiation pour les utilisateurs débutants que d'ouvrage de référence pour les plus expérimentés, et concerne aussi bien les utilisateurs de SAS Foundation que ceux de SAS Enterprise Guide, SAS Studio et SAS University Edition.
Cet ouvrage couvre les programmes des certifications SAS Certified Specialist: Base Programming Using SAS® 9.4 et Advanced Programming for SAS® 9.
Parmi les sujets développés :
la création, la manipulation et la gestion des tables de données ;
les procédures d'exploration des données : construction de tableaux, de rapports, de graphiques au moyen des procédures ODS Graphics ;
la production de documents au format HTML, PowerPoint, RTF, XLSX ou PDF avec ODS ;
la procédure PROC SQL et le langage SQL de SAS ;
le langage macro spécifique à SAS.
Pour vous aider à bien assimiler tous les concepts, le livre comprend près de 500 programmes d'exemples, plus de 150 exercices et des liens vers une centaine d'articles en ligne.
Une 4e édition mise à jour et augmentée
Enrichie de plus d'une centaine de pages, cette nouvelle édition propose des mises à jour importantes sur :
les passerelles entre SAS et Excel ;
l'optimisation des ressources ;
la production de graphiques au moyen de PROC SGPLOT et PROC SGPANEL ;
la création et gestion de vos tables au moyen de PROC SQL.
Le livre, qui porte essentiellement sur la version 9.4 de SAS, est également compatible avec les versions 9.2 et 9.3.
Ce livre a le soutien de SAS France.
À qui s'adresse cet ouvrage ?
Aux professionnels souhaitant découvrir ou approfondir leurs connaissances de la programmation SAS
Aux étudiants qui débutent avec SAS ou qui souhaitent préparer les examens de certification SAS Certified Specialist: Base Programming Using SAS® 9.4 et Advanced Programming for SAS® 9 -
Le traitement BigData : du Cloud computing à l'Internet des objets
Hadi Hashem
- Publishroom
- 8 Octobre 2021
- 9791023619195
Comment exploiter rentablement et efficacement les données dans un monde où tout va de plus en plus vite?
Dans le monde d'aujourd'hui de multiples acteurs de la technologie numérique produisent des quantités infinies de données. Capteurs, réseaux sociaux ou e-commerce, ils génèrent tous de l'information qui s'incrémente en temps réel selon les « 3 V » de Gartner : en Volume, en Vitesse et en Variabilité. Afin d'exploiter efficacement et durablement ces données, il est important de respecter la dynamicité de leur évolution chronologique à travers 2 approches : le polymorphisme d'une part, au moyen d'un modèle dynamique capable de supporter le changement de type à chaque instant sans failles de traitement ; d'autre part le support de la volatilité par un modèle intelligent prenant en compte des donnés-clés seulement interprétables à un instant « t », au lieu de traiter toute la volumétrie des données actuelle et historique.
Un guide indispensable pour un potentiel maximal d'exploitation des données.
À PROPOS DE L'AUTEUR
Hadi Hashem est un acteur engagé dans le monde du conseil logiciel et particulièrement le potentiel d'exploitation des données. Diplômé ingénieur en informatique, il a travaillé dans des entreprises des domaines d'énergie, de pharmaceutique vétérinaire et d'électroménager, en France et en Europe. Titulaire d'un doctorat dans le domaine du traitement BigData, il développe ses activités d'enseignement et de recherche dans les universités de France. Ses méthodes concrétisent un mariage entre les connaissances théoriques de la science des données et les besoins pratiques dans le quotidien des entreprises. -
Big data et visibilité en ligne ; un enjeu pluridisciplinaire de l'économie numérique
Christophe Alcantara, Francine Charest, Serge Agnostinelli
- Presses des Mines
- Design numérique
- 21 Juin 2022
- 9782356719188
En 2020, 35% des données numériques seront produites par 212 milliards d'objets connectés. 44 000 milliards de Go seront générés par ces objets et les systèmes informatiques devront être capables de stocker, d'analyser et d'interpréter ces données massives (Big Data).
Aujourd'hui déjà, la visibilité des entreprises comme celle des internautes dépend très largement de la maîtrise et de la compréhension du Big Data, caractérisé par les 4 V (volumétrie, vélocité, variété et valeur). San compter que les enjeux sont multiples et impliquent des domaines divers : informatique, juridique, communication et gestion.
Cette visibilité voulue ou induite est le résultat de l'application de modèles, de choix stratégiques et de tactiques opératoires spécifiques au web. Sa part "invisible" est sollicitée à travers les algorithmes opérant lors de requêtes sur les moteurs de recherche, mais aussi à travers des outils qui autorisent les traitements qualitatifs et quantitatifs des données. Ces activités numériques génèrent des traces, des données de masse qui sont un enjeu économique pour les entreprises digitales et une question de colonisation numérique pour les internautes.
La visibilité sur le web et le traitement automatisé de données de masse s'imposent à tous et ne peut être interrogée que par des entrées disciplinaires multiples et complémentaires. C'est l'objet de cet ouvrage qui rassemble des communications qui reposent principalement sur des études empiriques et qui représentent autant de chemins pour interroger le concept de Big Data et sa réalité plurielle. -
Système de gestion de bases de données CACHé
Grossin Claire
- Hermès Science
- 1 Juin 2008
- 9782746226999
Les technologies Objet de développement d'applications sont désormais bien présentes dans les entreprises, alors que, le stockage des informations est le plus souvent réalisé par l'utilisation de systèmes de gestion de bases de données relationnelles. Le
-
This book provides you with a concrete approach of using Neo4j in a production context. Written in the style of a play, it reports the debates between the members of a technical team specialized in strongly connected data. It focuses on methodology, integrations with existing systems, performance, monitoring and security.
You may already have an idea of what Neo4j is and how it works, and maybe you've even played around with some ideas using it. The question now is how you can take your graph project all the way to production-grade. This is what is discussed in this book.
The book starts with a brief introduction to Neo4j and its query language, CYPHER, to help readers who are just beginning to explore Neo4j. Then we go straight to the subject in question: how to set up a real life project based on Neo4j, from the proof of concept to an operating production-grade graph database. We focus on methodology, integrations with existing systems, performance, monitoring and security.
As leading experts in the Neo4j French community, the authors have chosen an unusual format to transmit their technical know-how: they tell you a story, a graph project story, where the protagonists are members of a technical team who specializes in the representation and manipulation of strongly connected data. The plot starts when a client come in with his project. You will attend their working sessions and see how they develop the project, fight over approaches, and ultimately solve the problems they encounter. Welcome to GraphITs.Tech!
This audacious and, we hope, entertaining approach allows you to experience all aspects of setting up a graph database, from the various and sometimes opposing points of view of technical and network experts, project managers, and even trainees.
Level: Intermediate/Advanced
Table of contents:
About Neo4j and CYPHER
Welcome to GraphITs.Tech!
1. A Little Bit of Method and Analysis
2. Interact with Neo4j
3. Data import/export
4. Operating Neo4j
5. Securing data
Appendix Neo4j OGM and Spring Data Neo4j
Appendix CYPHER Refcard -
Pratique de la data science avec R ; arranger, visualiser, analyser et présenter des données
Christian Paroissin
- ELLIPSES
- 8 Juin 2021
- 9782340054837
Le scientifique des données doit maîtriser plusieurs outils informatiques permettant de mettre en œuvre une méthodologie statistique. Dans sa catégorie, le langage R est un langage de programmation qui peut tout à fait être un outil pertinent pour l’analyse statistique de données, à côté d’autres langages de programmation ou d'autres logiciels.Cet ouvrage s'adresse tant à des étudiants de master en statistique et/ou master big data qui font leurs premiers pas en data science, qu'à des ingénieurs qui souhaitent approfondir leurs connaissances et mettre en œuvre leurs compétences à l'aide de R, en reprenant les différentes étapes du cycle de vie d'un projet basé sur l’analyse statistique de données : la préparation des données, la transformation des données, la visualisation des données, l'analyse des données et enfin, l'étape ultime, la diffusion des résultats de l'analyse.
-
Objectiver l'humain ? Volume 1 : qualification, quantification
Sylvie Leleu-Merviel
- Hermès Science
- 9 Juin 2008
- 9782746265530
Qualifier, quantifier, évaluer sont autant de démarches délicates lorsqu'elles sont envisagées en sciences humaines. Objectiver l'humain vise à asseoir une rigueur méthodologique dans l'appréhension des processus d'information et de communication. Cet ouvrage établit des protocoles scientifiquement étayés et fait le point sur un certain nombre de méthodes, d'approches et de techniques qui contribuent à l'appareillage scientifique. La difficulté réside dans l'objectivation de phénomènes qui demeurent pétris de subjectivité, parce qu'humains. Ce premier volume s'ouvre sur un panorama des méthodes de recueil et d'analyse des données usuelles en sciences humaines et sociales. Il propose ensuite des outils inédits, illustrés via plusieurs mises en oeuvre dans des environnements d'application variés. L'alternance systématique entre présentation formelle, à dominante théorique, et chapitres de concrétisation pratique dans un cadre applicatif donné, permet à chaque lecteur/expérimentateur de mobiliser à son tour les méthodes et outils proposés.
-
Outils pour la décision coopérative
Jean-Charles Pomerol, Pascale Zarate
- Hermès Science
- 10 Avril 2013
- 9782746295254
L'essor des technologies de l'information et de la communication a influencé les processus de décision dans les organisations. Ces processus ont subi des modifications sur le plan cognitif et organisationnel et sont désormais passés en mode collaboratif. À travers le paradigme de l'aide à la décision, Outils pour la décision coopérative fournit une étude de la prise de décision collaborative et témoigne de la nécessité, pour les décideurs, de coopérer. Différentes définitions de la coopération ainsi que de nombreux concepts associés tels que « collaboration » et « coordination » sont proposés. Plusieurs expérimentations et modèles permettent également d'expliciter ces nouveaux modes de prise de décision. Un panorama des systèmes d'aide à la décision et des systèmes collaboratifs tels que les workflows ou les Group Decision Support Systems permet une analyse de la transition vers l'informatique décisionnelle et ses nouveaux outils de prise de décision coopérative.