Notre site web sera en maintenance ce mardi 3 février après-midi. Les commandes enregistrées ne subirons pas de retard de traitement.
Neurogéométrie de la vision. Modèles mathèmatiques et physiques des architectures fonctionnelles
Petitot Jean
ECOLE POLYTECH
34,50 €
Épuisé
EAN :9782730215077
Approfondissant le cours de Sciences cognitives de l'Ecole Polytechnique, cet ouvrage expose, en relation étroite avec un vaste ensemble de données expérimentales, plusieurs modèles physico-mathématiques du cortex visuel primaire (aire V1) et propose un modèle géométrique original de son architecture fonctionnelle, c'est-à-dire de l'organisation de ses connexions neuronales. Son propos est d'expliciter les algorithmes géométriques que cette architecture fonctionnelle implémente, autrement dit la "neurogéométrie" immanente à la perception visuelle. Il concerne donc en définitive l'origine neuronale des représentations spatiales. Techniquement, il montre essentiellement trois choses. D'abord que le filtrage du signal optique par les neurones visuels s'apparente à une analyse en ondelettes. Ensuite que la structure de contact de l'espace des 1-jets des courbes du plan (ici le plan rétinien) se trouve implémentée par l'architecture fonctionnelle corticale. Enfin que les algorithmes visuels d'intégration des contours à partir de données sensorielles éventuellement très lacunaires sont modélisables en termes de la géométrie sous-riemannienne associée à cette structure de contact. L'ouvrage offre ainsi au lecteur la première interprétation systématique d'un nombre important de données neurophysiologiques dans un cadre mathématique bien défini, celui des états cohérents sur le groupe E(2) des déplacements du plan et celui de la géométrie sous-riemannienne. Dans la mesure où l'origine des représentations spatiales constitue un problème majeur non seulement scientifique mais aussi philosophique, l'ouvrage possède également une forte dimension épistémologique. Dit brièvement, il vise à montrer que la neurogéométrie de l'espace sensible permet de clarifier ce que l'on appelle en philosophie transcendantale le caractère synthétique a priori de l'espace.
Doutaut Vincent ; Petiot Jean-François ; Askenfelt
Une revue professionnelle de la facture instrumentale ? Il en existe à l'étranger, mais en France, une revue généraliste sur ce thème n'a pas encore vu le jour. L'objectif principal est d'être utile, et d'abord aux facteurs et aux professionnels des métiers de la musique. Pour être atteint, cet objectif en implique d'autres : en premier lieu participer à la communication des facteurs avec leurs clients naturels, les musiciens, dont beaucoup réfléchissent sur leur instrument et en font profiter les facteurs, artisans comme industriels, accordeurs-réparateurs comme distributeurs ; ensuite, participer à la communication entre facteurs et spécialistes de tous ordres, scientifiques de toutes disciplines, économistes spécialistes de l'innovation et des métiers d'art, représentants des administrations, sans oublier ceux qui enseignent la facture instrumentale. [...] Dans l'idéal, la revue devrait se trouver bien placée dans l'étal de tous les magasins de musique, diffusant instruments, partitions, livres, disques, et dans les bibliothèques.
Besse Jean-Marie ; Petiot-Poirson Karen ; Petit Ch
Résumé : Cet ouvrage apporte un point de vue neuf sur les personnes en situation d'illettrisme. Il questionne la réalité même de l'illettrisme, lors de situations très concrètes de communication par l'Écrit. Il montre quels sont certains des enjeux majeurs des difficultés que rencontrent ces personnes, au-delà même des questions liées à l'utilisation de l'Écrit. Il indique également à quelles conditions le chercheur ou le formateur peut aller à la rencontre de ceux-là même que notre société qualifie d'" illettrés ". Associant travaux scientifiques et expériences " de terrain ", il s'appuie notamment sur les résultats d'une étude conduite à l'aide du DMA (diagnostic des modes d'appropriation de l'Écrit) sur les parcours individuels de personnes détenues en établissements pénitentiaires, pour présenter une vision précise et documentée de leurs " manières de vivre en situation d'illettrisme " ; pour cela, lors des évaluations, la démarche adoptée s'efforce, plutôt que de noter uniquement ce qui manque chez ces personnes, de relever ce qu'elles ont réussi au cours de leurs activités, comment elles s'y sont prises ; quelles sont leurs représentations de l'Écrit et d'elles-mêmes au cours de ces tâches. Ainsi devient-il possible d'envisager la mise en place de dispositifs d'aide plus adaptés à la nature des difficultés rencontrées. Les importantes différences interindividuelles constatées interrogent de ce fait sur l'emploi d'un même terme, " illettrisme(s) ", pour décrire de façon pertinente leur rapport à l'écrit ; elles questionnent également sur les limites de compétences entre les lettrés et ceux que l'on tient parfois pour illettrés : qui est " illettré " ? S'adressant à tous ceux qui se préoccupent de la " lutte contre l'illettrisme " (acteurs de terrain, chercheurs, " décideurs "), cet ouvrage avance des propositions quant aux outils à utiliser pour l'évaluation diagnostique des publics en situation d'illettrisme et quant aux modalités de l'accompagnement de ces personnes.
Résumé : L'outil privilégié des créateurs d'animation 3D. Logiciel de modélisation et d'animation 3D disponible sous Windows, Mac OS X, Linux et IRIX, Maya est l'outil privilégié des créateurs de films d'animation, de jeux vidéo, d'effets spéciaux pour le cinéma et la télévision, etc. En sortant au printemps 2002 la version gratuite Maya Personal Learning Edition et en révisant ses prix à la baisse, Alias/Wavefront a entrepris de démocratiser un produit réputé haut de gamme, créant ainsi un fort engouement auprès des autodidactes et des étudiants débutant en 3D. Seize ateliers pour acquérir un savoir-faire professionnel. Écrit par un professionnel des films d'animation et des effets spéciaux, également formateur Maya, cet ouvrage invite à une prise en main du produit à travers des ateliers très illustrés, qui conduiront le lecteur à la réalisation d'animations 3D de niveau professionnel. Découvrir les nouveaux modules de Maya 4.5. Dans cette mise à jour de son livre précédent, qui portait sur Maya 4.0, Luc Petitot couvre toutes les nouveautés de la version 4.5 et propose quatre ateliers supplémentaires portant sur des fonctions avancées du produit : animation de personnages " skinnés ", création de fluides dynamiques, habillage de personnages avec les modules Fur et Cloth, et écriture de scripts MEL (Maya Embedded Language). À qui s'adresse ce livre ? À tous les graphistes 3D souhaitant prendre en main l'outil Maya et acquérir un savoir-faire immédiatement utilisable dans un contexte de production. Aux utilisateurs avertis de Maya souhaitant découvrir les nouveaux modules de la version 4.5. Aux professionnels du jeu vidéo, de l'animation et des effets spéciaux pour le cinéma.
Comprimer, restaurer et analyser un signal met en jeu des outils mathématiques sophistiqués, allant bien au-delà de la transformée de Fourier. Cet ouvrage mène le lecteur des bases du traitement du signal jusqu'aux résultats les plus récents, en jouant sur l'interaction entre les applications, le calcul numérique et les mathématiques. Il est conçu pour des élèves de maîtrise, de DEA ou de doctorat ainsi que pour des ingénieurs ou scientifiques qui analysent des données numériques. Des indications de difficulté permettent de choisir le niveau de lecture. Traiter un signal, de la musique à l'image, est avant tout affaire de représentation. Des sinusoïdes aux ondelettes, il s'agit de trouver les structures élémentaires qui permettent de révéler le contenu utile d'un signal. En partant de la transformée de Fourier, l'ouvrage montre que la construction de représentations localisées en temps et fréquence est un jeu de pavage organisé autour du principe d'incertitude. Les transformées et bases orthogonales d'ondelettes, de paquets d'ondelettes et de cosinus, trouvent leurs applications au travers de la théorie de l'approximation et des statistiques, en passant par le chemin des algorithmes rapides. Compression audio ou vidéo, débruitage, analyse de singularités, de multifractales ou de transitoires, sont autant d'applications qui nous conduisent à la frontière des mathématiques comprises à ce jour. Des logiciels disponibles sur Internet permettent au lecteur d'appliquer les algorithmes et les théorèmes du livre, et de développer son intuition sur des exemples.
Avec le sens de la prophétie qui l'habitait, Victor Hugo faisait s'exclamer en ces termes euphoriques l'étudiant Enjolras dans ses Misérables (1862) : " Citoyens, le XIXe siècle est grand mais le XXe sera heureux. Alors plus rien de semblable à la vieille histoire, on n'aura plus à craindre comme aujourd'hui une conquête, une invasion, une rivalité de nations à main armée, une interruption de civilisation dépendant d'un mariage de rois, et l'échafaud et le glaive, et les batailles et tous les brigandages du hasard dans la forêt des événements. On pourrait presque dire : il n'y aura plus d'événements. On sera heureux. " Un siècle plus tard, c'est un autre constat que lui opposent les philosophes. " Il n'y aura pas d'histoire universelle conduisant de la barbarie à l'humanité mais bien une histoire universelle conduisant de la fronde à la bombe H ", lui rétorque ainsi laconiquement Théodor Adorno. Que s'est-il donc passé entre l'utopie hugolienne et ce retour au réel " inhumain " ? Comment le XXe siècle a-t-il mis un abîme entre Victor Hugo et nous ? Comment pouvons nous penser cet abîme et donc ce siècle ? Tel est l'objet de cet essai. Ce livre est né d'un cours en 8 leçons prononcé au sein du département Humanités et sciences sociales de l'Ecole polytechnique par Alain Finkielkraut de 1998 à 2000 devant trois promotions successives d'étudiants. Il s'adresse en fait à tous ceux qui, à l'heure de sa " fin " ou de son " repli ", souhaitent " penser " le XXe siècle, ses acteurs et ses enjeux.
Ce livre présente un recueil de sujets, ou thèmes, issus des corrigés détaillés des huit petites classes (travaux dirigés) du cours " Nanomatériaux et applications électroniques " enseigné en troisième année à l'Ecole polytechnique. Les thèmes traités sont : Conductivité planaire d'un semiconducteur amorphe ; Transport électrique dans les semiconducteurs polycristallins ; La jonction métal - semiconducteur : diode de Schottky ou contact ohmique ? ; Structure électronique du graphène ; Structure électronique des nanotubes de carbone ; Emission froide et nanotubes de carbone ; Transport quantique et nanotubes de carbone ; Mesure d'épaisseurs nanométriques par ellipsométrie. L'approche pédagogique est similaire à celle employée dans la recherche : en partant des principes de base du domaine concerné, construire un modèle décrivant les phénomènes mis en jeu et valider celui-ci en le confrontant aux données issues de l'expérience. Ce livre est avant tout destiné aux étudiants en master ou en doctorat, de même qu'aux enseignants souhaitant traiter dans leurs cours certains des thèmes abordés.
Cet ouvrage s'adresse à un public de deuxième cycle ayant déjà effectué un premier apprentissage en mécanique des fluides. Il forme la base du cours enseigné dans la majeure Planète Terre en fin de troisième année du cursus polytechnicien. Dans l'ensemble de l'ouvrage, la démarche consiste à mettre à la portée d'un lecteur ne disposant que d'un bagage mathématique restreint (les équations aux dérivées partielles linéarisées) des modèles simplifiés qui permettent d'analyser l'essentiel des effets physiques responsables des propriétés particulières des écoulements géophysiques. Le chapitre 1 présente le mouvement de l'atmosphère et de l'océan, tel que nous le révèlent les observations effectuées en routine par les instituts météorologiques, les satellites, et les navires océanographiques, Le chapitre 2 introduit les équations de base de la mécanique des fluides, dans l'approximation de Boussinesq, qui sera utilisée dans tout l'ouvrage. Les caractéristiques particulières des écoulements géophysiques (stratification, rotation) sont discutées en détail au chapitre 3. Le chapitre 4 introduit le modèle de Saint-Venant, un prototype simple des écoulements géophysiques qui ouvre la voie à de nombreuses applications, comme l'étude des ondes de marée. Le chapitre 5 aborde les écoulements quasi-géostrophiques, discute la propagation des ondes de Rossby et le phénomène d'instabilité barocline, à l'origine des perturbations météorologiques des latitudes tempérées. Le chapitre 6 présente les phénomènes liés à la turbulence au voisinage du sol. Le chapitre 7 présente une étude comparative des mouvements convectifs de l'atmosphère et de l'océan. Le chapitre 8 discute les traits principaux de la circulation générale de l'atmosphère terrestre, et ses aspects énergétiques. Le chapitre 9 aborde de même la circulation générale de l'océan, en présentant les principaux modèles d'écoulements dans des bassins fermés. Enfin, le chapitre 10 discute les effets du couplage entre l'océan et l'atmosphère, notamment en zone tropicale, et présente quelques aspects du phénomène El Niño-Oscillation australe.