La conception et la communication architecturale à l’ère numérique 

ARCHITECTURE PROGRAMMÉE

Notre génération a tendance à oublier que les nouvelles technologies ont connu un bond extraordinaire au moment où nous même grandissions, et que l’avènement des logiciels de DAO (Dessin Assisté par Ordinateur) est un évènement finalement très récent dans l’histoire de l’architecture. La DAO est englobée dans la plus grande catégorie de la CAO (Conception Assistée par Ordinateur) qui regroupe l’ensemble des logiciels et des techniques de modélisation géométrique requérant l’usage d’un ordinateur et de ses capacités de calcul ou de computation.
Les premières tentatives d’introduction de l’informatique en architecture remontent aux années 60, avec Cedric Price et Gordon Pask qui avaient alors utilisé de nouveaux outils informatiques pour concevoir leurs projets. En 1963, Ivan Sutherland alors doctorant au MIT, écrit pour sa thèse de Doctorat le programme informatique «Draftsman», plus connu sous le nom de « Sketchpad ». C’est la première interface graphique de DAO que l’on connaisse et qui permettait, au travers d’un moniteur et d’un crayon optique, de dessiner et d’apporter des modifications sur des objets instanciés.
L’idée du programme était d’avoir un dessin principal qui puisse s’instancier en plusieurs répliques. Si l’utilisateur modifiait le dessin principal à l’aide de son crayon-optique, toutes les instances changeaient également. Ce programme est en quelque sorte le précurseur des logiciels BIM, dans lesquels les dessins sont instanciés sur de nombreux niveaux. Non content d’ouvrir la porte de la CAO aux architectes et celle des interfaces Homme-Machine, le programme préfigure avec une avance déconcertante ce que certains logiciels permettent aujourd’hui de faire dans le domaine de la conception assistée par ordinateur.
Mais c’est seulement dans les années 90 que les architectes commencent à remettre sérieusement en cause les moyens par lesquels ils conçoivent l’architecture. Le « paperless studio « était l’objet d’une expérience didactique menée vers le milieu des années 1990 à la Graduate School of Architecture, Planning and Preservation de Columbia University. Alors considérés comme des manifestations marginales, les studios d’architecture « sans papier » voient progressivement le jour dans les universités américaines et vont se populariser très rapidement. Nous comprenons seulement aujourd’hui la portée et la lucidité de ces expériences, à une époque où plus une seule agence n’est en mesure de se passer des outils de conception assistés par ordinateur. A la différence près que l’appellation « paperless » n’est peut-être pas la plus à même de décrire les agences d’architecture contemporaines, car paradoxalement, nous n’avons peut-être jamais utilisé autant de papier que depuis l’invention des outils de DAO et de l’imprimante.
Alors que l’évolution du numérique en architecture a été fulgurante ces 30 dernières années, certains tentent de nous alerter sur cette vitesse de développement exponentielle. Le numérique n’est plus le domaine opaque qu’il était à ses débuts, il a une consistance et des effets bien réels sur notre monde. C’est notamment le point de départ d’un ouvrage dirigé par Greg Lynn et intitulé «Archéologie du Numérique».
L’auteur plaide pour que nous commencions dès à présent à écrire l’histoire du numérique, car ses évolutions sont aujourd’hui tellement rapides et majeures qu’il existe un risque de perdre une somme de données gigantesque, en partie à cause de cette même évolution des systèmes informatisés.
Les données informatiques que Frank Gehry avait par exemple utilisé pour construire le Guggenheim de Bilbao sont des réliques aujourd’hui difficilement lisibles tant les interfaces et programmes utilisés étaient spécifiques et différents de ceux que nous utilisons aujourd’hui.
A la manière de Greg Lynn, il est temps de s’arrêter un instant sur l’évolution des outils informatiques pour tenter de mieux cerner les enjeux qu’ils véhiculent, tant pour les architectes que pour les étudiants.

LA CONCEPTION ET LA COMMUNICATION ARCHITECTURALE À L’ÈRE NUMÉRIQUE

1) La technologie dans le milieu architectural étudiant: l’évidence de sa nécessité, et ses dérives.
Il semble judicieux d’introduire cette section par la porte du monde étudiant, en raison de la prépondérance des outils de conception informatisés faisant désormais partie intégrante de la formation d’un architecte et ayant irrémédiablement bousculé et transformé les méthodes de conception architecturale. Il apparaît tout à fait improbable d’imaginer aujourd’hui qu’un étudiant en architecture ait la moindre chance de décrocher un travail à la sortie de ses études s’il n’a pas à sa disposition un certain nombre de logiciels lui permettant de mener à bien le travail de l’architecte contemporain.
Et c’est le chemin qui mène à cette maîtrise que nous tenterons de détailler.

Premiers pas numériques

La technologie dans le monde des études architecturale s’apparente à un monstre disparate et tentaculaire ayant absorbé la moindre parcelle exploitable du champ de l’architecture et que nous devons à tout prix dompter si nous voulons avoir une chance d’intégrer le marché du travail. Plus aucune phase, plus aucune méthode ne semble pouvoir échapper à l’inexorable progression des outils numériques, et son impact sur le monde des études d’architecture est indéniable.
Pour avoir pu observer les conséquences de cet apprentissage dans le monde du travail et dans différents pays, je peux affirmer avec une relative certitude que peu de personnes, et pour beaucoup d’agences, ne maîtrisent mieux les logiciels et les technologies liés de près à l’architecture que les étudiants fraîchement sortis de l’école. L’évolution des technologies et des logiciels est si rapide qu’après un cycle d’étude complet, soit environ 5 ans, le parc logiciel en architecture est complètement renouvelé. Soit avec des versions plus récentes d’un même logiciel, soit avec de nouveaux venus. Alors étudiants en architecture, nous sommes dès le départ confrontés à l’usage de ces technologies, et passeront ces 5 années à enrichir notre éventail de logiciels en nous dotant au passage des plus récentes versions. En ce qui concerne l’embauche cela représente un avantage considérable, si nous ne parlons pas déjà de prérequis indispensables. Car la compétition fait rage à la porte des agences d’architecture, et la maîtrise des logiciels importe souvent plus à l’employeur qu’une maîtrise parfaite des méthodes de conception architecturale. Peut-être est-il préférable pour certains architectes de disposer d’un employé apte à exécuter les tâches qu’on lui commande, plutôt que d’un individu autonome etapte à remettre en cause les fondements d’un projet ?

Posture critique et résilience numérique

Il ne s’agit pas fondamentalement du type de technologie que nous sommes amenés à utiliser, ni du moment auquel nous y sommes confrontés qui importe. Ce qui manque trop souvent au moment où l’on place l’outil numérique dans les mains de l’étudiant néophyte, c’est l’apprentissage d’une posture critique, une introduction au « pourquoi » et aux dérives potentielles des outils que nous apprenons à utiliser. Car tout l’enjeu est bien là. Si les outils numériques font miroiter aux étudiants des possibilités infinies, c’est seulement par la maîtrise des fondements architecturaux que ces outils pourront alors s’ouvrir à eux et qu’ils pourront utiliser leur potentiel. Ce constat pourrait s’apparenter à une épouvantable banalité, mais nous sous-estimons bien souvent la force avec laquelle nous sommes reliés au numérique et à quel point il peut nous être difficile de l’écarter. L’enseignement architectural doit être en mesure de faire comprendre aux étudiants que ces outils ne sont pas néfastes, si tant est qu’ils soient capables de les écarter, notamment au cours des phases de conception préliminaires. Nous pouvons donner tous les logiciels du monde aux étudiants, mais devons leur donner un crayon et du papier pour commencer, sans pour autant les forcer à ne pas utiliser leurs ordinateurs. Apprendre à jongler d’un outil à l’autre permet aussi de mieux sentir les limites de chaque outil, d’autant que la profusion de logiciels nous permet en outre de ne pas nous enfermer dans une méthode de pensée unique, façonnée à sa façon par l’éditeur d’un logiciel.
Dans un cadre plus général, tant sur les technologies que les générations concernées, on nous met pourtant en garde sur l’introduction des nouvelles technologies dans l’enseignement:
« Les instances de transmission culturelle que sont l’école et les équipements culturels sont donc confrontées à des bouleversements affectant les fondements de leur action : conception du temps, des objets culturels, du lien entre savoir et culture et de ses médiateurs. Elles sont appelées à revisiter leur modèle de médiation pour l’adapter aux jeunes générations, afin de favoriser l’émergence d’une culture de demain et pour permettre la transmission d’un patrimoine culturel, lui-même en voie de redéfinition […] Ceci incite à une véritable réflexion pédagogique sur les modes de transmission, qui ne se réduise pas à l’insertion de technologies mais englobe une réflexion sur les apprentissages. »
Bien que l’article dont est tiré cet extrait traite plutôt de l’ensemble de la génération que nous appelons aujourd’hui les « Digital Natives », c’est cette question d’une réflexion sur les apprentissages qui fait défaut, que l’on ait 10 ou 20 ans et quel que soit le domaine d’étude.
Nous devons reconnaître explicitement que même si l’insertion évoquée des technologies et plus particulièrement des logiciels d’architecture est parfois le fait d’un enseignement spécifique, il n’en est pas de même pour tous les logiciels auxquels nous pouvons être confrontés. Qu’ils soient introduits à l’école ou qu’ils découlent naturellement d’un usage collectif nous devons nécessairement prolonger l’enseignement des logiciels de manière autodidacte, et par la force des choses, avec des versions piratées. Voilà une réalité bien inavouable pour l’enseignement architectural en France (et partout ailleurs), la majeure partie du savoir qui englobe les logiciels que nous utilisons au cours de nos études nous a essentiellement été inculqué par nous-mêmes et de façon illégale (L’illégalité du phénomène n’est finalement pas très importante, puisque nous finirons par payer une licence quoi qu’il arrive lorsque nous serons architectes). Les cours qui nous sont dispensés nous permettent certes de forger des bases solides sur l’emploi de certains de ces logiciels mais leur profusion et leur diversité empêche littéralement l’enseignement de balayer la totalité des logiciels tournés vers le champ de l’architecture. Nous devons pourtant jeter le problème sous le tapis afin de pouvoir avancer, en espérant que les étudiants se débrouillent par eux-mêmes, à la fois pour se fournir, mais aussi et surtout pour apprendre.
Etant donné la situation, il deviendrait alors judicieux d’envisager la mise en place de ressources permettant aux étudiants de continuer leur apprentissage par eux-mêmes, une sorte de base de données didactique, existant dans la continuité de la pédagogie initiale, d’autant plus que le rythme auquel avance chaque étudiant varie énormément de l’un à l’autre et qu’une telle base de données donnerait à chacun les moyens de combler ses lacunes ou d’avancer plus vite. Enfin, une des capacités que nous devrions acquérir, au-delà de la connaissance même des logiciels, est notre aptitude à leur faire face de façon critique, d’être en somme capable de résilience numérique. L’enseignement architectural doit dès à présent former des professionnels capables de s’adapter à tout changement numérique aussi brutal soit-il et ne jamais se laisser piéger par un outil, aussi attrayant qu’il soit.

Le corps et l’esprit face à la technologie

Un usage dévoyé et excessif des outils numériques a parfois pour conséquence d’éloigner le concepteur de ses capacités de création, et de son aptitude à intérioriser physiquement le travail créatif.
L’origine de tous ces maux peut en partie provenir de l’inadaptabilité des interfaces auxquelles nous sommes confrontés ainsi que de la rigidité des programmes que nous utilisons. Comment se fait-il que la puissance des logiciels progresse à une allure vertigineuse alors que nos interfaces n’ont pas évolué depuis une trentaine d’années ? Pourquoi Ivan Sutherland dès 1963 dessinait-il déjà des objets instanciés sur l’ancêtre de l’écran tactile alors que nous dessinons encore à la souris et au clavier ? Cette combinaison d’interfaces n’est en tout cas pas la mieux adaptée à toutes les phases de création. Pour s’en convaincre il suffit d’essayer de dessiner des objets à « souris levée » pour constater son inefficacité et son imprécision. Certaines innovations permettent de renouveler le rapport entre le corps humain et nos ordinateurs et interrogent non seulement les outils numériques mais aussi les interfaces physiques qui permettent de les contrôler. A notre époque, l’interaction grandissante entre les hommes et les machines pose la question du développement cognitif humain au travers des technologies, et du rapport intellectuel que nous entretenons avec nos machines.
Les architectes étant constamment entourés d’écrans, il est important de saisir les enjeux d’une telle manifestation dans le travail des architectes, et de bien comprendre que leur impact, s’il est difficilement identifiable pour chaque individu, ne doit pas être négligé.

Interfaces et logiciels

Il faut préalablement différencier deux types d’interfaces, les interfaces utilisateurs qui sont ce que nous voyons d’un logiciel à l’écran afin d’interagir avec lui, et les interfaces physiques, comme la souris et le clavier. L’ordinateur est aujourd’hui relié au cerveau humain par les mains et l’interface qu’elles contrôlent.
Alors pourquoi la souris et le clavier ? En 1964, Douglas Engelbart invente la souris pour facilement désigner des objets sur son écran et cette interface n’a finalement que très peu évolué depuis sa création. Nous disposons certes d’écrans tactiles aujourd’hui, ainsi que des tablettes graphiques, mais leur utilisation reste marginale. Une des raisons pour lesquelles nous utilisons encore cette interface proviendrait paradoxalement de notre capacité d’adaptabilité. Lorsqu’une interface est inutilement compliquée, qu’elle soit physique ou virtuelle, l’utilisateur développera un effort conséquent pour rendre l’utilisation de cette interface « normale », au point qu’il devienne difficile d’en changer car il faudrait alors réapprendre de nouveaux automatismes. Si la souris et le clavier sont parfaitement adaptés à la vie de tous les jours, nous devrions réinterroger la prévalence de cette interface et nous demander si, en tant qu’architecte, désapprendre certains automatismes pour en apprendre de nouveaux ne pourrait pas avoir des conséquences bénéfiques. Car les interfaces physiques et virtuelles que nous utilisons aujourd’hui nous empêchent souvent de manifester une forme de pensée sensorielle ; elles réduisent notre aptitude à faireusage de tous nos sens, là où le dessin manuel par exemple faitintervenir des processus incarnés, non verbaux ou conceptuels, mais qui sont profondément liés à notre être et à notre existence.

La réalité virtuelle, concevoir à échelle 1:1

Il ne faudrait pas présenter la réalité virtuelle comme un remède qui permettrait de soigner les maux que nous avons évoqués précédemment, mais bien comme un nouvel outil qui peut permettre aux architectes d’étendre et d’enrichir leurs méthodes de conception. Toujours est-il qu’elle fait converger à elle seule une partie des problématiques liées à l’utilisation des outils numériques et plus particulièrement des logiciels de modélisation 3D.
Inadaptabilité des interfaces physiques, perte du rapport d’échelle à cause du zoom numérique, tendance à extérioriser les images architecturales plutôt que de les concevoir depuis l’intérieur (Section 3: L’œil à Satiété), trop grande concentration sur le sens de la vue et moins sur les autres sens, la réalité virtuelle s’adresse à chacune de ces problématiques et représente un bond phénoménal au regard du peu d’évolution qu’ont connues nos interfaces physiques jusqu’alors.
Imaginez-vous bondir et danser dans un espace vierge, relié à l’ordinateur par l’intermédiaire d’un casque de réalité virtuelle et de contrôleurs que vous tenez en main. Vos mouvements ne laissent pas de traces tangibles à court terme dans le monde physique, mais ils en génèrent dans le monde virtuel. Ces traces peuvent être interprétées par l’ordinateur de bien des manières et peuvent en outre permettre d’interagir avec des volumétries présentes dans ce monde virtuel. Il faut bien admettre que le fait de ne pas générer de trace dans le monde physique peut se révéler assez comique pour un observateur extérieur, spectateur d’une personne qui semble totalement perdue et qui s’agite de façon incompréhensible. Pourtant l’expérience que vit l’utilisateur est souvent unique et difficilement explicable, en partie car nous n’avions encore jamais rencontré d’interface qui nous permette de générer une trace numérique tri-dimensionnelle, de la percevoir et de pouvoir interagir avec elle. être finalement capable de générer un croquis tri-dimensionnel est une expérience empreinte d’un immense potentiel, alors que la barrière entre interface physique et virtuelle s’est considérablement amincie avec un tel outil.
Les interfaces de réalité virtuelle nous promettent aujourd’hui plusieurs choses et sont de nature à influencer différemment nos pratiques. Dans un premier temps elles promettent de faire évoluer la course à « l’image » à un niveau inégalé et peut-être dangereux dans un environnement architectural déjà submergé par la profusion de rendus hyperréalistes. Mais elles promettent également de renouveler le rapport que les clients peuvent entretenir avec la vie embryonnaire d’un édifice et peut-être pour le meilleur.
Je pardonne à l’avance au lecteur qui n’aurait pas eu la chance de « voir », à l’aide d’un casque de réalité virtuelle, pour pouvoir le croire, mais regarder à travers ces lunettes, c’est être le sujet d’une véritable expérience spatiale. Une telle immersion est rendue possible grâce à un léger décalage binoculaire, permettant de simuler la profondeur de l’espace en faisant intervenir les deux yeux, mais également et peut-être de manière encore plus essentielle, en permettant l’usage de la vision périphérique. Une perspective architecturale en 2 dimensions ne permet pas de faire usage de la vision périphérique pour visualiser l’architecture, à moins de l’imprimer sur des dimensions gigantesques et de la recourber sur une surface cylindrique ou sphérique pour ainsi l’extraire de la seule dimension planaire. Juhani Pallasmaa décrit la vision périphérique comme le fig.3 Glen Keane, ancien dessinateur phare de Disney, dessinant en 3D dans la réalité virtuelle sens qui permet de faire corps avec le monde, d’être englobé par l’espace et d’y insérer mentalement son corps . La vision directe qui elle nous permet de nous concentrer sur les détails n’a pas le même impact sur la perception de l’espace. Et c’est certainement là où la réalité virtuelle réussi grandement à nous étonner, car la « sensation d’espace » est saisissante. Là où les images informatisées ont réussi à faire comprendre l’architecture à un plus grand nombre de non-initiés, les casques de réalité virtuelle permettent aujourd’hui de faire vivre un espace, et non plus seulement de le visualiser. Mais pourquoi l’évolution des techniques de représentation nous pousse-t-elle à tout prix vers la simulation de sensation spatiales et physiques réelles, dans un monde virtuel ? Ne pouvons-nous pas nous contenter de nos images mentales et des outils dont nous disposons déjà ?

La course à l’image des concours d’architecture

Depuis maintenant plusieurs années, on assiste à une course effrénée dans les concours d’architecture pour montrer toujours plus de ces images, et de façon toujours plus spectaculaire. Depuis environ 10 ans, les rendus sont d’ailleurs obligatoires dans la plupart des concours. C’est la raison pour laquelle on voit fleurir un nombre grandissant de studios dédiés à la production de ces images. C’est aujourd’hui un service qui s’externalise la plupart du temps, beaucoup d’architectes ne produisent plus les perspectives de leurs projets pour les concours, d’une part car les logiciels de rendu sont devenus très complexes et parfois difficiles à manier, mais surtout parce que c’est un atout évident lors d’un concours, et qu’une agence préférera débourser 2000€ pour 2 images si elles lui permettent de le remporter, un mal souvent nécessaire. Cette transformation uniformisante des concours d’architecture est un processus qui s’autoalimente car plus nous produisons ces images, plus la demande augmente, et de manière analogue, plus nous intentons à la reproduction fidèle d’une réalité potentielle, plus l’exigence envers ce réalisme se renforce. La production intensive d’images photo-réalistes a un impact direct et fort sur les attentes de rendu et par conséquent sur le choix des décideurs. Sur certains types de concours, on dépense d’ailleurs sans compter.
Les PPP par exemple, (Partenariat Public-Privé), sans détailler l’ensemble des dérives que ces contrats engendrent, sont le théâtre d’une débauche de fausse luxuriance, d’autant qu’on ne sait plus vraiment qui commande ces images entre les architectes et les grands groupes du BTP. Et cette abondance peut coûter très cher.
Lors d’une compétition en PPP avec une agence d’architecture dont je ne peux pas citer le nom, le cahier des charges commandait à l’architecte la production d’une quinzaine d’images « d’ambiance » en plus d’une quantité aberrante de documents graphiques.
Le coût de revient final a été estimé à 32 000€ seulement pour la production externe de ces images. Sachant qu’encore 4 groupements concourraient pour le projet à ce moment-là, le bon sens nous amène à remettre très sérieusement en cause l’étalage d’une telle opulence.

De la logique additive à la logique associative

Une des caractéristiques fondamentales des outils de modélisation algorithmique réside dans la capacité à ne plus être limité au seul processus additif. Selon Arturo Tedeschi , le dessin traditionnel relève d’un processus additif dans lequel la complexité est atteinte par l’addition et la juxtaposition de signes indépendants tracés sur le papier. Aucune relation associative ne peut y  être gérée et la majeure partie des logiciels de DAO, pour la plupart dans la continuité de cette logique, ont transposé ce principe d’accumulation de signes sous la forme très répandue des calques.
Toujours selon l’auteur, cette méthode additive ne serait pourtant pas adaptée à la manière dont nous réfléchissons naturellement et induit d’emblée deux limites fondamentales. La première est liée à des mécanismes cognitifs sous-jacents au processus de création fonctionnant davantage par la formulation d’interrelations entre les informations, que par addition de couches successives. En ce sens donc, la logique de Grasshopper tend à se rapprocher un peu plus d’un fonctionnement cognitif naturel. Nous exposerons la seconde.

Isolation et contrôle de paramètres

Pour traduire cette idée plus concrètement, je m’appuierai en partie sur un projet auquel j’ai collaboré étroitement lorsque je travaillais au sein de l’agence danoise COBE. Il s’agit de la maison des Chimpanzés qui sera construite dans le Zoo de Copenhague (voir fig.14) et remplacera l’installation existante devenue vétuste. Un des éléments forts de ce projet a été d’imaginer l’enclos intérieur des Chimpanzés sous un toit unique autoportant, dont la structure sera composée d’anneaux en bois superposés avec une certaine surface de recouvrement.
Grasshopper a été employé assez tôt sur le projet en ce qui concerne la recherche formelle, mais sa véritable force ne s’est révélée qu’au bout de quelques mois, lorsque le processus de conception était déjà bien engagé et que certaines décisions étaient alors plus ou moins arrêtées. Le script ayant permis de générer le toit est un exemple relativement simple et pourtant très efficace d’isolation de paramètres. Une liste de données sur lesquelles nous pouvions agir est apparu au fil du temps avec par exemple : l’épaisseur des anneaux, leur largeur et la surface de recouvrement entre chacun d’entre eux. Grasshopper a ici révélé son potentiel dans le nombre d’itérations qui ont été opérées sur le toit. Il fallait être en mesure de fixer certains paramètres tout en étant capable d’en modifier un autre sans heurter la géométrie générale du toit. Sa forme globale était par exemple générée à l’aide de seulement deux courbes, ajustables directement dans Rhino, tandis que les différentes caractéristiques des anneaux étaient paramétrables dans Grasshopper. Il nous était possible d’ajuster l’allure générale du toit sans pour autant changer la surface de recouvrement qui venait s’ajuster au nouveau profil en temps réel. A contrario, il nous était également possible de fixer l’allure générale et de modifier l’épaisseur de chaque anneau, tout en contenant la hauteur maximale. Le toit s’ajustait en quelques secondes, certains anneaux disparaissaient s’ils atteignaient l’altitude limite, et l’on pouvait ainsi constater dans un temps très court, l’impact d’une décision sur le dessin de l’ouvrage.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela chatpfe.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières
INTRODUCTION 
ARCHITECTURE PROGRAMMÉE 
PARTIE 1 – LA CONCEPTION ET LA COMMUNICATION ARCHITECTURALE À L’ÈRE NUMÉRIQUE 
1) La technologie dans le milieu architectural étudiant: l’évidence de sa nécessité, et ses dérives
Premiers pas numériques
Posture critique et résilience numérique
2) Le corps et l’esprit face à la technologie
Interfaces et logiciels
Le syndrome de l’orbite
La réalité virtuelle, concevoir à échelle 1:1
3) L’oeil à satiété
La technique du rendu photo-réaliste
L’hégémonie de l’oeil et les paradoxes du réalisme
La course à l’image des concours d’architecture
4) Vers quelle CAO?
Le BIM et la perte de contrôle
Le design paramétrique, processus informels
L’architecture et l’Open-Source
PARTIE 2 – FABRICATION DIGITALE 
Introduction
1) La fabrication digitale dans l’enseignement
L’apprentissage par le «faire»
Les écoles européennes et le retard français
2) L’Impression 3D
Construire l’impossible
Vers une véritable alternative constructive à grande échelle
3) Robotique: l’invention d’une nouvelle tectonique
Ouvriers versatiles
Flight-assembled architecture, défier la grande échelle
Vers un artisanat numérique?
MAÎTRE D’OEUVRE DU CONTINUUM NUMÉRIQUE 
BIBLIOGRAPHIE

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *