Savoirs

  • Genres Généralités
  • «
  • 1
  • 2
  • 3
  • ...
  • 170
  • 171
  • 172
  • »

[SÉMINAIRE] ECC 2017-2018 avec André Gunthert « L'intelligence des images, crise de l'information » l’Equipe Culture et Communication (Centre Norbert Elias – UMR 8562)

2h29min34

Séminaire ECC 2017-2018

. Lundi 12 février 2018
André Gunthert « L'intelligence des images, crise de l'information »

Révolution des usages, la transition numérique des images d’enregistrement n’a pas ou très peu modifié leurs caractéristiques iconiques.
C’est pourquoi cette mutation majeure se présente aujourd’hui sous une forme paradoxale, où la
continuité semble l’emporter sur le changement.
Des illustrations de presse aux émissions de télévision en passant par les expositions d'art, les usages de la photographie ou de la vidéo semblent n’avoir connu que des évolutions marginales, sans rapport avec la transformation profonde de leur support.
Les effets de la dématérialisation doivent en effet être cherchés ailleurs que dans les pratiques héritées du passé, conditionnées par des contraintes de rareté ou de coût élevé.
L’extension de ses fonctions documentaires fait de l'image un outil de connaissance et d’exploration qui change la nature même de l’information.
L’intégration de la vidéo-photographie au sein des outils de communication numérique a fait naître des usages expressifs et conversationnels inédits, creuset d’un nouvel argot visionumérique. La multiplication des applications de surveillance et de reconnaissance visuelle sont au coeur du développement de l’intelligence artificielle, secteur le plus innovant de la recherche industrielle.
Au moment où ces différents domaines fusionnent par l’intermédiaire de la collecte de données, et où le stock iconographique mondial est en passe de devenir le nouveau terrain de jeu des robots, l’image numérique est aujourd’hui à la croisée des chemins. Quel sont les enjeux de l'iconisation de l'information ?
Le partage des photographies personnelles peut-il se poursuivre dans un univers où les images sont interprétables par les machines ? Doit-on réguler l’accès à l’information visuelle ?
Né en 1961, André Gunthert est maître de conférences en histoire visuelle à l’EHESS (Ecole des Hautes Etudes en Sciences Sociales) depuis 2001.
Spécialiste d’histoire de la photographie, il a élargi son champ d’étude aux usages sociaux des images, et compte parmi les premiers à avoir interrogé leur basculement dans l’ère numérique. Ses recherches actuelles sont consacrées aux systèmes narratifs de la culture visuelle, à l'histoire de l'image documentaire, et aux fonctions normatives dans l’espace public.
Fondateur de la revue Etudes photographiques, il a notamment dirigé avec
Michel Poivert L’Art de la photographie (Citadelles-Mazenod, rééd. 2016). Son
dernier ouvrage, L’Image partagée. La photographie numérique (Textuel, 2015)
propose la première histoire des nouveaux usages de l'image numérique.

MIDISCIENCES 2018 « Des Ptolémées aux Francs. Dix ans de recherches archéologiques de l’Université d’Avignon à Paphos (Chypre). » avec Claire Balandier.

1h10min01

MIDISCIENCES Université d'Avignon et des Pays de Vaucluse
Courtes conférences grand public de vulgarisation scientifique.

les Midisciences abordent des thématiques de recherche (par des chercheurs et doctorants Avignonnais, de questions d'histoire des
sciences, etc.) et permettent de partager ensuite, lors d'une
discussion de 30 mn, les questionnements et réflexions sur les
connaissances en devenir.
Ce dispositif "Midisciences"
est porté par la Médiation Scientifique de la Maison de la Recherche de
l'Université d’Avignon avec le soutien de l'UFR IP Sciences,
Technologies et Santé et en collaboration avec les chercheurs des
disciplines représentées à l'Université (Personnels
Université-Doctorant-Chercheur EPST en Sciences et Agrosciences ou
Sciences Humaines et Sociales) et de leurs réseaux.
15 fevrier 2018 de 12h30 à 14h00


« Des Ptolémées aux Francs. Dix ans de recherches archéologiques de l’Université d’Avignon à Paphos (Chypre). » avec Claire Balandier.

Distributed data structures and consistency criteria

Achour MOSTEFAOUI

39min44

Les systèmes distribués sont divers mais
peuvent être classés en deux classes principales, ceux à
communication par messages et ceux à mémoire partagée. Depuis
qu'il a été montré par Attiya et al. que les deux modèles sont
équivalents et que l'on peut émuler l'un au dessus de l'autre,
une littérature abondante a été produite sur l'émulation de
différentes structures de données partagées. Un point important
concerne la cohérence garantie par une implémentation d'un
objet donné. Un nombre important de critères de cohérence a
été proposé par différentes communautés (atomicité, PRAM,
cohérence causale, cohérence cache, cohérence à terme, etc.).
Le critère le plus intuitif étant la linéarisabilité. Une
implémentation linéarisable se comporte exactement comme si
l'objet était physiquement unique et accédé en concurrence. Ce
critère étant coûteux à mettre en oeuvre, des critères plus
faibles. L'un deux la cohérence séquentielle en est la plus
proche. Elle offre les mêmes garanties que la linéarisabilité à
un coût théoriquement plus faible. Cependant, ce critère n'est
pas composable. Dans la présentation présente, on propose une
mise en oeuvre d'une mémoire partagée séquentiellement
cohérente beaucoup moins coûteuse qu'une mémoire linéarisable
et on donne deux contextes d'utilisation très couramment
rencontrés où la cohérence séquentielle est composable.

A brief history of atomic commitment

Rachid GUERRAOUI

33min21

Cet exposé retrace brièvement l'historique de
l'algorithmique répartie à travers l'un de ses problèmes les plus fondamentaux:
la validation atomique.

Détecteurs de défaillance

Carole DELPORTE

44min56

Cet exposé fait un tour d'horizon sur les détecteurs
de défaillances, introduits par Chandra et Toueg en 1996.  Michel Raynal a
largement participé aux recherches sur ce sujet.

Indistinguishability, Duality and Necessary Conditions

Yoram MOSES

49min34

This talk discusss the most fundamental notion in distributed computing. I will
present and prove a universal property for distributed computing, and discuss
implications and applications.

 

Tasks, algorithms, and models of distributed computing with Michel (together with other colleagues)

Sergio RAJSBAUM

37min39

In this talk, I describe some of the work I have done
with Michel (and others) over a very productive period that started 15 years
ago, and hopefully will last for many more years, where we have published an
average of two conference papers and one journal paper per year, and have met
many times in Mexico, France and other places. I concentrate on our more recent
work on interval-linearizability, a notion we introduced to specify objects
more general than the usual sequentially specified objects. While tasks
explicitly state what might happen when a set of processes run concurrently,
objects only specify what happens when processes access the object
sequentially. Remarkably, these are two approaches that have largely remained
independent since the early days of the theory of distributed computing. I
describe the bridges we establish between these two paradigms, and our
discussions about what is a distributed problem, and what it means to solve it.

Folding Turing is hard but feasible

Nicolas Schabanel

1h10min13

We introduce and study the computational
power of Oritatami, a theoretical model to explore greedy molecular
folding, by which the molecule begins to fold before waiting the end of
its production. This model is inspired by our recent experimental work
demonstrating the construction of shapes at the nanoscale by folding an
RNA molecule during its transcription from an engineered sequence of
synthetic DNA. While predicting the most likely conformation is known to
be NP-complete in other models, Oritatami sequences fold optimally in
linear time. Although our model uses only a small subset of the
mechanisms known to be involved in molecular folding, we show that it is
capable of efficient universal computation, implying that any extension
of this model will have this property as well.

This result is the first principled construction in this research
direction, and motivated the development of a generic toolbox, easily
reusable in future work. One major challenge addressed by our design is
that choosing the interactions to get the folding to react to its
environment is NP-complete. Our techniques bypass this issue by allowing
some flexibility in the shapes, which allows to encode different
« functions » in different parts of the sequence (instead of using the
same part of the sequence). However, the number of possible interactions
between these functions remains quite large, and each interaction also
involves a small combinatorial optimisation problem. One of the major
challenges we faced was to decompose our programming into various levels
of abstraction, allowing to prove their correctness thoroughly in a
human readable/checkable form.

We hope this framework can be generalised to other discrete dynamical
systems, where proofs of such large objects are often difficult to get.

Joint work with Cody
Geary (Caltech), Pierre-Étienne Meunier (Tapdance, Inria Paris), et
Shinnosuke Seki (U. Electro-Communications, Tokyo)

Adding Concurrency to Smart Contracts

Maurice HERLIHY

44min08

Modern cryptocurrency systems, such as Ethereum,
permit complex financial transactions through scripts called *smart contracts*.
These smart contracts are executed many, many times, always without
concurrency. First, smart contracts are serially executed before being recorded
on the blockchain, and once recorded, they are serially re-executed whenever it
is necessary to check that the blockchain is correct. Such serial execution
limits system throughput and fails to exploit today's concurrent multicore and
cluster architectures.



This talk presents a novel way to permit miners and validators to execute smart
contracts in parallel. A party attempting to add a smart contract to the
blockchain executes multiple smart contracts speculatively, in parallel, thus
``discovering'' a serializable concurrent schedule for those transactions. This
schedule is captured and encoded as a parallel but deterministic fork-join
program used by later validators to re-execute those transactions concurrently
and securely.



Experiments show non-trivial speedup with even a small number of cores.



Joint work with Thomas Dickerson, Eric Koskinen, and Paul Gazzillo.

An extensionalist analysis of computer simulations

Franck VARENNE

1h01min52

The current spreading of multi-scale and multi-process integrative
simulations is challenging for the philosophy of science. What is the
epistemic function of such a simulation? What does it really show? On
what grounds? Is it an experimental design or a theoretical
construction? To contribute to these debates, I suggest analyzing the
ways computer simulations (CSs) are using symbols. To this end, I will
present an extensionalist analysis of CSs. This approach puts the
emphasis not on languages nor on models, but more precisely on symbols,
on their extensions, and on their various ways of referring to data or
theories. It shows that the chains of reference of symbols in a CS are
multiple and of different kinds, especially in integrative simulations.
Once these chains are recognized and understood, the associated
processes of calibration and validation can be further explained. It
finally becomes possible to explain the reasons why some complete
reduction of the role of CSs to classical epistemic functions such as
“experience”, “experiment”, or “theoretical argument” has become
doubtful.

AUNEGE - Utiliser des ressources éducatives libres en formation tout au long de la vie

04min04

L'université numérique Economie Gestion AUNEGE vous invite à découvrir un exemple d'utilisation de ressources éducatives libres dans le cadre du Master MAE de l'Université de Nice Sophia Antipolis.
Les ressources proposées par AUNEGE forment une banque de contenus expertisés, destinée à l'acquisition et à la consolidation des connaissances nécessaires dans le domaine de l'économie et de la gestion.

Le rouleau animé des Dix Rois des enfers chinois - Film d'animation 十殿阎罗 Ten Kings of Hell

Julien Saint-Sevin

06min36

Voyage dans les enfers chinois raconté à travers un rouleau chinois à la manière d'un dessin animé. Il s'agit de l'animation d'un rouleau conservé à la BnF, en conservant les peintures originales .
Avant de migrer dans une nouvelle vie, l'âme du mort traverse les dix cours des Enfers où chacun des dix rois juges examine l'âme . Le rouleau illustre les différents rois devant lesquels l'âme doit passer, assistés de leur greffier ou autres personnages. Des démons sont également présents et punissent les damnés. Le rouleau est déchiré et ne présente pas toutes les cours des enfers.


A trip to Chinese Hell - A chinese scroll animated as a cartoon
It's a cartoon made from a chinese scroll conserved at the National Library of France, preserving the original paintings.
Before being permitted to transmigrate into the next life, a soul is tried by a different king. Here, the scroll shows a king—assisted by a scribe and other officials—examining and passing sentence on the souls of the dead; in the foreground demons punish the wicked. The scroll isn't complete.

地狱之游 - 十殿阎王卷轴动画片
阎罗王被认为是地狱的主宰,掌管地狱轮回。大约在南北朝期间由印度传入中国。由于阎王的信仰与中国本土宗教道教的信仰系统相互影响,演变出具有汉化色彩的十殿阎王,有十殿阎罗之说。此说源于唐代,相传天帝册封阎罗王,由阎罗王统率地狱和五岳卫兵。地狱更分为十殿,十殿各有其主和名号,称地府十王,统称十殿阎王。 十殿阎王各有其主、诞辰和专职 (baidu)
https://www.youtube.com/watch?v=uwJtXvPce8g


D'après "le sutra des Dix Rois" / Based on "The scripture on the Ten Kings" / 十王经
retrouvé à Dunhuang et conservé à la Bibliothèque Nationale de France Source : gallica.bnf/BnF

Dans le cadre du séminaire de master d'histoire de l'art chinois dispensé par Pénélope Riboud
Inalco, Paris
  • «
  • 1
  • 2
  • 3
  • ...
  • 170
  • 171
  • 172
  • »