Informations

14.6 : Tendances des maladies modernes - Biologie

14.6 : Tendances des maladies modernes - Biologie


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Figure (PageIndex{1}). Chemins de quatre maladies. L'axe vertical montre les cas en milliers.

De nombreuses maladies ordinaires ont été maîtrisées depuis la dernière moitié du vingtième siècle, certaines au point de disparaître du monde naturel. La variole et la peste bovine ont disparu, et la polio presque. Au moment où nous écrivons ces lignes (2016-17), les agents antipoliomyélitiques anticipent son extinction dans un avenir prévisible. La diphtérie suit une trajectoire similaire (Figure (PageIndex{1})), sans aucun cas aux États-Unis au cours du XXe siècle.

Des maladies telles que la coqueluche et la rougeole (Figure (PageIndex{1})) ont été maîtrisées, mais restent avec nous, certaines évoluant à travers des épidémies périodiques. Les taux de nombreuses maladies ordinaires diminuent et les maladies infectieuses ne sont plus la principale cause de décès dans les populations humaines.

Les taux de diverses maladies sexuellement transmissibles, cependant, suivent une évolution différente (Figure (PageIndex{2})). Les taux de gonorrhée ont diminué mais restent considérablement au-dessus de zéro, et c'est une maladie couramment signalée aux États-Unis. L'apparition de la syphilis semble être cyclique, car les taux avaient baissé mais sont maintenant à la hausse. Les taux de chlamydia, qui peuvent entraîner des conséquences graves, y compris l'infertilité chez les femmes, ont augmenté régulièrement, sans fin en vue, et les taux d'herpès génital et d'autres maladies sexuellement transmissibles augmentent de la même manière. Les maladies sexuellement transmissibles sont un problème majeur à résoudre au XXe siècle.

Figure (PageIndex{2}). Maladies sexuellement transmissibles aux États-Unis. L'axe vertical montre le taux pour 100 000 habitants.


Les vaccins, de nouvelles opportunités pour une nouvelle société

La vaccination est l'intervention médicale la plus efficace jamais introduite et, avec l'eau potable et l'assainissement, elle a éliminé une grande partie des maladies infectieuses qui tuaient autrefois des millions de personnes. Une étude récente a conclu que depuis 1924 aux États-Unis seulement, les vaccins ont évité 40 millions de cas de diphtérie, 35 millions de cas de rougeole et un total de 103 millions de cas de maladies infantiles. Un rapport de l'Organisation mondiale de la santé indique qu'aujourd'hui, les vaccins préviennent 2,5 millions de décès par an : chaque minute, cinq vies sont sauvées grâce aux vaccins dans le monde. Dans l'ensemble, les vaccins ont fait et continuent de faire un excellent travail pour éliminer ou réduire l'impact des maladies infantiles. En outre, grâce aux nouvelles technologies, les vaccins ont désormais le potentiel d'apporter une énorme contribution à la santé de la société moderne en prévenant et en traitant non seulement les maladies transmissibles à tous les âges, mais aussi les maladies non transmissibles telles que le cancer et les troubles neurodégénératifs. L'obtention de ces résultats nécessite le développement de nouvelles technologies et de modèles économiques de la santé capables de saisir non seulement le simple rapport coût-bénéfice de la vaccination, mais aussi la valeur de la santé en soi.

Mots clés: adjuvants rentabilité immunothérapie espérance de vie vaccinologie inverse.

Déclaration de conflit d'intérêts

Déclaration de conflit d'intérêts : Tous les auteurs sont des employés à temps plein de Novartis Vaccines.


Fond

Des événements de duplication du génome entier, ou polyploïdisation, se sont produits à plusieurs reprises tout au long de l'histoire évolutive des plantes à fleurs [1, 2]. De nombreuses espèces actuellement cultivées sont des polyploïdes récents, formés soit par hybridation interspécifique (allopolyploïdes, comme le blé, l'avoine, le canola, l'arachide et le coton), soit par hybridation intraspécifique (autopolyploïdes, comme la pomme, la fraise, la pastèque et la luzerne) [2]. De plus, les homologues d'espèces polyploïdes plus anciennes, telles que le maïs (de 11 à 15 millions d'années depuis la polyploïdisation)[3] ont eu plus de temps pour diverger par des délétions, des pertes de fonction, des processus de néo-fonctionnalisation et de sous-fonctionnalisation (généralement appelés comme diploïdisation). Ces processus confèrent aux espèces polyploïdes une plasticité évolutive accrue, qui favorise la spéciation et l'adaptation à de nouveaux environnements et contribue à l'énorme succès de la polyploïdie dans l'évolution des plantes[2, 4]. Lorsque les processus de diploïdisation se poursuivent sur de longues périodes, ils conduisent à la formation de paléo -les espèces polyploïdes (par exemple, le riz), qui sont difficiles à différencier des vraies espèces diploïdes. Cependant, des études génomiques ont fourni des preuves convaincantes d'anciens événements de duplication du génome entier dans les premières lignées monocotylédones et dicotylédones, suggérant que la polyploïdie faisait partie de l'évolution de la plupart des angiospermes actuels [5, 6].

Blé (Triticum spp.) a été domestiqué à l'aube de l'agriculture il y a environ 10 000 ans et a depuis été adapté pour pousser dans un large éventail de climats à travers le monde [4]. La plupart des variétés de blé cultivées appartiennent à deux espèces tétraploïdes Triticum turgide L. (blé dur ou pâtes alimentaires, génomes AABB) et hexaploïde T. aestivum L. (blé tendre, génomes AABBDD). Le génome tétraploïde du blé provient d'un événement d'hybridation interspécifique survenu il y a moins de 0,5 million d'années, qui combinait le génome AA de T. urartu Tumanian ex Gandilyan et le génome BB d'une espèce de graminée inconnue apparentée à Aegilops speltoides Tausch[7-9].Blé tendre, T. aestivum , a évolué à partir d'un deuxième cycle d'hybridation interspécifique et de duplication du génome qui s'est produit peu de temps après la domestication et a combiné les génomes tétraploïdes AABB de T. turgidum et le génome DD de l'herbe sauvage Aegilops tauschii (Coss.) Schmalh[4].

Les progéniteurs diploïdes des espèces de blé polyploïdes ont divergé d'un ancêtre commun il y a seulement 2,5 à 4,5 millions d'années[10], ce qui se reflète dans une identité moyenne élevée (environ 97%) parmi les régions codantes de différents homéologues de blé. Cependant, cette moyenne varie considérablement entre les classes de gènes qui sont soumises à différentes pressions évolutives [11]. Par exemple, les événements de conversion (croisement inégal entre les paralogues dupliqués en tandem) et les processus de sélection diversifiés sont connus pour accélérer le taux de divergence entre les membres de la famille des gènes de résistance aux maladies [12-14].

Les régions intergéniques du blé divergent encore plus rapidement que les familles de gènes à évolution rapide en raison des niveaux élevés de méthylation et des taux accrus d'insertions et de délétions, qui sont associés à l'abondance d'éléments répétitifs dans ces régions [15]. Ces changements rapides dans les régions intergéniques peuvent affecter les gènes voisins et entraîner des taux rapides d'insertion, de suppression et de transposition de gènes [16]. Les effets potentiellement négatifs associés aux suppressions de gènes sont atténués par la polyploïdie [17-20]. Transposition des gènes et fragments de gènes par des rétroéléments adjacents entraînent une prolifération plus élevée de pseudogènes dans le grand polyploïde Triticées génomes par rapport à d'autres espèces de graminées avec des génomes plus petits [19, 21]. De plus, la divergence accrue des variantes d'épissage alternatif entre les progéniteurs diploïdes diversifie davantage la structure des gènes des shoméologues (et potentiellement leur fonction) chez les espèces de blé polyploïdes [21]. La nature dynamique de ces grands génomes doit être prise en compte dans le développement de stratégies pour caractériser le complément génique du blé.

Chez les espèces à grand génome, de novo Les assemblages de transcriptomes sont une stratégie efficace pour accéder à l'espace génique tout en évitant les régions intergéniques hautement répétitives. Dans le blé, par exemple, les régions codant pour les gènes transcrits ne représentent que 1 à 2 % du génome total[22]. Croissance rapide du débit, de la qualité et de l'accessibilité des technologies de séquençage de nouvelle génération, ainsi que des améliorations de de novo les algorithmes d'assemblage du transcriptome ont favorisé une multitude de projets de séquençage du transcriptome. Avec un accès accru au séquençage de nouvelle génération, de nombreuses usines de novo Des assemblages de transcriptome ont été publiés et plusieurs algorithmes d'assemblage différents ont été proposés [23-25]. Cependant, les défis propres à de novo L'assemblage du transcriptome d'une jeune espèce polyploïde comme le blé tétraploïde commence tout juste à être abordé [26, 27]. La séparation correcte des homéologues proches est particulièrement importante, car il existe des exemples connus d'homéologues différents contribuant différemment à des traits agronomiques importants (par exemple, le blé VRN1 homéologues[28]). Une séparation correcte des homéologues est également importante pour les applications de sélection, le développement de marqueurs et les analyses génomiques en aval.

Trois études récentes sur les transcriptomes de blé hexaploïdes [27, 29, 30] mettent en évidence les difficultés d'assemblage d'homéologues proches chez une espèce polyploïde. Schreiber et al. (2012) ont observé que la plupart des homéologues étaient regroupés en contigs chimériques lorsque les transcriptomes de blé hexaploïdes étaient assemblés à l'aide de Velvet/Oases (60 % à 80 % de séquences chimériques) ou Trinity (50 % de séquences chimériques). Un assemblage en deux étapes à forte intensité de calcul utilisant l'assembleur MIRA a permis de réduire le nombre de séquences homéologiques chimériques à 18%, résolvant ainsi partiellement le problème polyploïde à l'étape d'assemblage [27]. Une stratégie alternative a été utilisée par The International Wheat Genome Sequencing Consortium (IWGSC) : des contigs spécifiques au génome de blé hexaploïde ont été générés en triant des bras chromosomiques individuels à l'aide de la cytométrie en flux et du séquençage et en assemblant chacun d'eux séparément [21, 31, 32].

Dans cet article, nous présentons un pipeline d'abioinformatique qui répond aux défis de de novo assemblage du transcriptome des génomes étroitement apparentés du blé tétraploïde. À l'aide de ce pipeline, nous avons assemblé, annoté et analysé le transcriptome de T. turgidum CV. Kronos et de son plus proche parent diploïde T. urartu.Ce transcriptome de blé diploïde ainsi qu'un ensemble de données de référence de 13 472 ADNc de blé entier ont été utilisés pour évaluer l'effet de différents paramètres sur la qualité de l'assemblage de blé tétraploïde. sous-ensembles spécifiques. Enfin, nous avons utilisé des approches de génomique comparative pour annoter des cadres de lecture ouverts et des protéines prédites, prédire des pseudogènes et des transcrits fusionnés artificiellement, et générer des modèles de gènes pour augmenter la valeur de cette ressource.


Diversification du secteur : l'impact de la BioRévolution s'étend bien au-delà des soins de santé

Les technologies qui sous-tendent la révolution de la biologie sont connectées et renforcent les avancées dans les domaines interdisciplinaires. Nous avons identifié quatre secteurs clés de BioRevolution, chacun comprenant plusieurs sous-secteurs d'impact.

Santé humaine – Les révolutions génétique et biotechnologique sont le plus souvent associées aux soins de santé, car bon nombre des applications préliminaires les plus médiatisées sont liées aux soins de santé. La quantité et la qualité de ces applications augmenteront considérablement à mesure que nos systèmes de santé passeront d'une médecine généralisée basée sur des moyennes de population à des soins de santé personnalisés ou de précision basés sur la biologie individuelle de chaque personne. Lorsque la quantité de données collectées sur le génome humain atteindra une masse critique, notre système passera à un système de soins de santé prédictif et préventif qui nous aidera à vivre plus longtemps et en meilleure santé.

Bien que les soins de santé soient le marché le plus mature à ce jour, nous nous attendons à ce que d'autres secteurs rattrapent leur retard.

Agriculture & Alimentation – Les technologies dynamiseront le processus de reproduction sélective pour accomplir en quelques mois ou quelques années ce qui auparavant aurait pu prendre des siècles ou des millénaires. La résistance aux ravageurs, le rendement et la variété peuvent être considérablement améliorés pour les cultures de base, qui peuvent également être conçues pour augmenter considérablement la photosynthèse afin de ralentir le changement climatique. Les animaux domestiques peuvent être conçus pour augmenter la résistance aux maladies, la productivité et la qualité des produits grâce à une reproduction sélective assistée par marqueurs ciblant les résultats souhaités spécifiques.

Matériaux Produits chimiques et énergie – L'approvisionnement en intrants industriels pour la fabrication est un autre domaine mûr pour la transformation. Alors que la population humaine atteindra environ 10 milliards de personnes d'ici le milieu du siècle, les modèles actuels d'extraction des ressources ne seront pas durables. Les outils des révolutions génétique et biotechnologique, cependant, permettent de créer des matériaux à grande échelle en manipulant le code génétique plutôt que de les extraire de la nature. Au lieu de fabriquer du plastique à partir de pétrole et des parfums à partir de fleurs, par exemple, nous pouvons produire à la fois par génie génétique de la levure et d'autres microbes.

Machines biologiques et interfaces d'ampli – La connexion et la communication entre la biologie des humains et des ordinateurs, y compris l'utilisation de l'ADN pour le calcul et le stockage, augmente le potentiel d'extraction, de stockage et de traitement des données des individus.

WTDNA détient actuellement environ 80% de son poids dans le secteur de la santé humaine. Au fil du temps, nous nous attendons à ce que la maturation de l'agriculture et de l'alimentation ainsi que des matériaux, des produits chimiques et de l'énergie entraîne une représentation accrue dans WTDNA.


Méthodes

Les données sur les maladies à transmission vectorielle du NNDSS ont été récupérées à partir de 2004, la première année où les maladies virales (arbovirales) neuroinvasives et non neuroinvasives transmises par les arthropodes étaient à déclaration obligatoire à l'échelle nationale, jusqu'en 2016, l'année la plus récente pour laquelle des données complètes sont disponibles (https://wwwn.cdc. gov/nndss/conditions/notifiable). Les données ont été compilées par maladie, type de vecteur (c'est-à-dire moustique, tique ou puce), état ou territoire de résidence et année. Les services de santé des États signalent les cas de maladie humaine en utilisant des définitions de cas de surveillance standard qui incluent des critères cliniques et de laboratoire. Pour certaines maladies, les données déclarées selon les définitions du Conseil d'État et des épidémiologistes territoriaux comme confirmées ou probables ont été combinées. Les cas autochtones et associés aux voyages ont été analysés ensemble par État ou territoire dans lequel ils ont été trouvés.

virus Chikungunya, virus Zika et Babesia les cas sont devenus à déclaration obligatoire après 2004, seules les données du NNDSS sont présentées. Bien que la dengue ne soit devenue à déclaration obligatoire au niveau national qu'en 2010, des données nationales antérieures étaient disponibles auprès de la Direction générale de la dengue du CDC et sont incluses dans cette analyse.


Connaissance de la situation

La connaissance de la situation dans le contexte de la préparation à une pandémie peut être définie comme ayant une vue précise et à jour des menaces potentielles ou en cours de maladies infectieuses (y compris par la surveillance traditionnelle chez les humains et les animaux) et les ressources (humaines, financières, informationnelles , et institutionnel) disponibles pour gérer ces menaces (ASPR 2014). La connaissance de la situation est une activité cruciale à tous les stades d'une pandémie, y compris les périodes de prépandémie, d'étincelle et de propagation. Il nécessite le soutien de ressources de soins de santé (comme les hôpitaux, les médecins et les infirmières), l'infrastructure de diagnostic et les systèmes de communication. Elle exige également que la population ait accès au système de santé et ait confiance en lui.

La connaissance de la situation soutient les décisions politiques en suivant si et où la transmission de la maladie se produit, en détectant les méthodes les plus efficaces pour réduire la transmissibilité et en décidant où allouer les ressources. Pendant une pandémie, la connaissance de la situation permet au suivi de comprendre l'évolution d'une pandémie et de déterminer si les mesures d'intervention sont efficaces.

La capacité de détecter la présence d'une pandémie exige que le personnel de santé reconnaisse la maladie et ait la capacité technique et de laboratoire d'identifier l'agent pathogène (ou d'exclure les agents pathogènes connus) et de répondre aux augmentations d'échantillons cliniques en temps opportun. L'identification rapide réduit le risque en permettant d'isoler les personnes infectées et de recevoir des soins cliniques appropriés. Au cours de la pandémie de SRAS de 2003, un retard d'une semaine dans l'application des mesures de contrôle peut avoir presque triplé la taille de l'épidémie et augmenté sa durée de quatre semaines (Wallinga et Teunis 2004).

Les maladies infectieuses endémiques peuvent affecter la détection des pandémies en compliquant le diagnostic différentiel et l'identification rapide des cas de pandémie. Le chevauchement des symptômes entre les pathogènes endémiques et émergents, par exemple, entre la dengue et le virus Zika ou entre le paludisme et Ebola, a entravé l'identification précoce des cas (de Wit et al. 2016 Waggoner et Pinsky 2016). Cette difficulté suggère un rôle pour l'investissement dans le développement et le déploiement de tests de diagnostic rapide dans les régions à forte charge d'agents pathogènes endémiques et à risque élevé d'émergence ou d'importation de maladies (Yamey et al. 2017). Des contraintes supplémentaires affectant la connaissance de la situation épidémique et pandémique dans les PRFI sont décrites dans l'encadré 17.2.

Encadré 17.2

Contraintes de connaissance de la situation dans les pays à revenu faible et intermédiaire.


5. Une augmentation de l'évaluation numérique, du diagnostic et du traitement des patients

La transformation et l'évolution de l'aspect numérique des entreprises existent depuis des siècles. Tous ces éléments ont mis en place un meilleur accès pour les consommateurs et améliorent davantage les stratégies de marketing pour les entreprises. En 2021, il y aura certainement une augmentation de l'aspect numérique de la biotechnologie grâce à la possibilité d'évaluation, de diagnostic et de traitement en ligne et à distance des patients du monde entier.

À ce jour, de nombreux médecins et praticiens de la santé sont accrédités pour poursuivre leur pratique en ligne. Avec des entreprises comme Virtual Health qui fournissent des assistants de périphériques sans fil, les diagnostics virtuels sont possibles. Certains médecins généralistes peuvent même prescrire des médicaments via leurs cliniques virtuelles avec un accès à leur base de données en ligne via LiveHealth Online ou Teladoc. La télépratique est maintenant une tendance en développement et en croissance dans le monde de la biotechnologie.


Recevez notre newsletter quotidienne LUNCHTIME GENIUS

Vous voulez vous sentir un peu plus intelligent pendant que vous grignotez un sandwich ? Notre newsletter quotidienne arrive juste à temps pour le déjeuner, proposant les plus grandes actualités scientifiques de la journée, nos dernières fonctionnalités, des questions-réponses étonnantes et des interviews perspicaces. PLUS un mini-magazine gratuit à télécharger et à conserver.

Merci! Ne tardez pas à recevoir votre newsletter Lunchtime Genius dans votre boîte de réception.

Vous avez déjà un compte chez nous ? Connectez-vous pour gérer vos préférences de newsletter

En saisissant vos coordonnées, vous acceptez les conditions générales et la politique de confidentialité du magazine BBC Science Focus. Vous pouvez vous désinscrire à tout moment.

Nous irons en guerre avec les deepfakes

Une course aux armements opposera les IA les unes aux autres pour découvrir ce qui est réel et ce qui ne l'est pas.

Les vidéos Deepfake ont explosé en ligne au cours des deux dernières années. C'est là que l'intelligence artificielle (IA) est utilisée pour échanger l'image d'une personne sur une photo ou une vidéo contre celle d'une autre.

Deeptrace, une société créée pour lutter contre cela, affirme qu'en seulement huit mois entre avril et décembre 2019, les deepfakes ont grimpé de 70% pour atteindre 17 000.

La plupart des deepfakes, environ 96%, sont de la pornographie. Ici, le visage d'une célébrité remplace l'original. Dans son rapport 2019, L'état des deepfakes, Deeptrace affirme que les quatre meilleurs sites pornographiques deepfake dédiés ont généré 134 364 438 vues.

Il y a cinq ans à peine, la manipulation vidéo réaliste nécessitait un logiciel coûteux et beaucoup de compétences, c'était donc principalement l'apanage des studios de cinéma. Désormais, des algorithmes d'IA disponibles gratuitement, qui ont appris à créer des contrefaçons très réalistes, peuvent faire tout le travail technique. Tout le monde a besoin d'un ordinateur portable avec une unité de traitement graphique (GPU).

L'IA derrière les contrefaçons est également devenue plus sophistiquée. "La technologie est vraiment bien meilleure que l'année dernière", déclare la professeure agrégée Luisa Verdoliva, qui fait partie du groupe de recherche en traitement d'images de l'Université de Naples en Italie. "Si vous regardez des vidéos YouTube deepfake de cette année par rapport à l'année dernière, elles sont bien meilleures."

Aujourd'hui, des efforts considérables sont déployés au sein des universités et des start-ups pour lutter contre les deepfakes en perfectionnant les systèmes de détection basés sur l'IA et en retournant l'IA sur elle-même. En septembre 2019, Facebook, Microsoft, l'Université d'Oxford et plusieurs autres universités se sont associés pour lancer le Deepfake Detection Challenge dans le but de dynamiser la recherche. Ils ont mis en commun une énorme ressource de vidéos deepfake pour que les chercheurs puissent opposer leurs systèmes de détection. Facebook a même déboursé 10 millions de dollars pour des récompenses et des prix.

Verdoliva fait partie du comité consultatif du défi et mène ses propres recherches sur la détection. Son approche consiste à utiliser l'IA pour repérer les signes révélateurs – imperceptibles à l'œil humain – dont les images ont été mêlées.

Chaque appareil photo, y compris les smartphones, laisse des motifs invisibles dans les pixels lorsqu'il traite une photo. Différents modèles laissent des motifs différents. "Si une photo est manipulée à l'aide de l'apprentissage en profondeur, l'image ne partage pas ces caractéristiques", explique Verdoliva. Ainsi, lorsque ces marques invisibles ont disparu, il y a de fortes chances que ce soit un deepfake.

D'autres chercheurs utilisent différentes techniques de détection et bien que beaucoup d'entre eux puissent détecter les deepfakes générés de la même manière que ceux de leurs données d'entraînement, le véritable défi consiste à développer un système de détection furtif capable de détecter les deepfakes créés à l'aide de techniques totalement différentes.

La mesure dans laquelle les deepfakes s'infiltreront dans nos vies au cours des prochaines années dépendra de la façon dont cette course aux armements de l'IA se déroulera. En ce moment, les détecteurs font du rattrapage.

Les interfaces cerveau-machine vont changer notre façon de travailler (et de marcher)

Les exosquelettes aideront les paralysés à marcher à nouveau et assureront la sécurité des travailleurs de l'usine.

Une partie de la promesse de la technologie est qu'elle nous permettra de dépasser nos capacités naturelles. L'un des domaines où cette promesse est la plus évidente est celui des interfaces cerveau-machine (IMC), des dispositifs implantés dans votre cerveau, qui détectent et décodent les signaux neuronaux pour contrôler les ordinateurs ou les machines par la pensée.

Le meilleur exemple du potentiel des IMC est peut-être venu en octobre 2019 lorsque Thibault, paralysé, en a utilisé un pour contrôler un exosquelette qui lui permettait de marcher.

Cependant, ce qui retient actuellement les IMC, c'est le nombre d'électrodes qui peuvent être implantées en toute sécurité pour détecter l'activité cérébrale et que, étant en métal, les électrodes peuvent endommager le tissu cérébral et finiront par se corroder et cesser de fonctionner.

Mais en juillet dernier, l'entrepreneur en technologie Elon Musk a annoncé que son entreprise, Neuralink, pourrait apporter une solution. Non seulement le Neuralink BMI prétend utiliser plus d'électrodes, mais ils sont transportés sur des "fils" polymères flexibles qui sont moins susceptibles de causer des dommages ou de se corroder.

Mais il est difficile de savoir avec certitude à quel point ces affirmations sont réalistes, car la société est restée muette sur la technologie. De plus, il n'a pas encore été testé chez l'homme.

Même sans IMC, les exosquelettes sont déjà utilisés pour augmenter les capacités humaines, en particulier pour les personnes dont les capacités pourraient être limitées en raison d'une maladie ou d'une blessure.

À Hobbs Rehabilitation à Winchester, le physiothérapeute spécialisé Louis Martinelli utilise un exosquelette qui s'attache au dos, aux hanches, aux jambes et aux pieds d'un patient pour l'aider à se tenir debout et à marcher.

« Si le patient a subi une lésion médullaire très grave, c'est le seul moyen de le lever et de traverser suffisamment la pièce », dit-il. "Il s'est avéré vraiment bénéfique, en particulier pour la gestion de la pression artérielle, la réduction du risque de maladies vasculaires et la fonction vésicale et intestinale."

Avec l'exosquelette, seuls un à deux kinésithérapeutes sont nécessaires pour assister le patient plutôt qu'une équipe de quatre ou plus. Mais cela permet également au patient d'accomplir beaucoup plus - en faisant plusieurs centaines de pas au cours d'une séance au lieu des 10-20 avec la thérapie conventionnelle. Il existe des applications potentielles ailleurs – des exosquelettes pour le haut du corps sont testés dans une usine de fabrication Ford aux États-Unis pour aider les gens à transporter des pièces automobiles lourdes.

Mais aussi utiles que soient les exosquelettes du bas du corps, il est peu probable qu'ils remplacent les fauteuils roulants de si tôt. C'est en partie parce qu'ils luttent avec des surfaces inégales et ne peuvent pas égaler la vitesse de marche, mais aussi parce qu'ils sont beaucoup plus chers.

Les prix des fauteuils roulants commencent aux alentours de 150 £, alors qu'un exosquelette peut vous coûter entre 90 000 et 125 000 £. C'est pourquoi Martinelli aimerait voir la technologie se simplifier un peu dans les années à venir.

« Ce que j'aimerais voir, c'est que la disponibilité de ces équipements augmente car ils sont très chers. Pour les particuliers, avoir accès à un exosquelette est vraiment difficile, peut-être qu'une version plus simple à moitié prix permettrait à plus de centres ou d'endroits de les avoir.

Les machines suivront vos émotions

Au milieu de préoccupations éthiques, les scientifiques s'efforceront d'aider l'IA à lire les sentiments.

Emotion AI vise à scruter nos sentiments les plus intimes - et la technologie est déjà là. Il est utilisé par les entreprises de marketing pour obtenir des informations supplémentaires sur les candidats.

La vision par ordinateur identifie les expressions faciales et l'apprentissage automatique prédit les émotions sous-jacentes. Les progrès sont difficiles, cependant, lire les émotions de quelqu'un est vraiment difficile.

Le professeur Aleix Martinez, qui a participé à la recherche, le résume bien, «tout le monde qui sourit n'est pas heureux, et tout le monde qui est heureux ne sourit pas».

Il cherche à savoir si l'IA émotionnelle peut mesurer l'intention, un élément central dans de nombreuses affaires pénales. « Les implications sont énormes », dit-il.

Votre psychiatre IA vous verra maintenant

Les systèmes sociaux et de santé sont sous pression où que vous soyez dans le monde. En conséquence, les médecins s'intéressent de plus en plus à la manière dont ils peuvent utiliser les smartphones pour diagnostiquer et surveiller les patients.

Bien sûr, un smartphone ne peut pas remplacer un médecin, mais étant donné que ces appareils sont avec nous presque à tout moment de la journée et peuvent suivre chacune de nos actions, il serait négligent d'utiliser cette capacité pour de bon.

Plusieurs essais sont déjà en cours. MindLAMP peut comparer une batterie de tests psychologiques avec des applications de suivi de la santé pour garder un œil sur votre bien-être et votre acuité mentale. Le projet screenome veut établir comment la façon dont vous utilisez votre téléphone affecte votre santé mentale, tandis qu'une application appelée Mindstrong dit qu'elle peut diagnostiquer la dépression simplement en glissant et en faisant défiler votre téléphone.

En savoir plus sur l'intelligence artificielle :

Nous mettrons le pied sur la Lune (et peut-être sur Mars)

Verrons-nous des astronautes poser le pied sur la Lune au cours de la prochaine décennie ? Probablement. Et Mars ? Définitivement pas. Mais si les plans de la NASA se réalisent, les astronautes visiteront la planète rouge d'ici les années 2030.

Il ne fait aucun doute que la NASA aspire à planter des pieds d'astronaute sur Mars. Dans l'un de ses rapports, Journey to Mars de la NASA, ils expliquent que la mission représenterait "la prochaine frontière tangible pour étendre la présence humaine".

Le plan est d'utiliser la Lune et une petite station spatiale en orbite autour de la Lune, Lunar Orbital Platform-Gateway, comme tremplin, permettant à l'agence spatiale de développer des capacités qui aideront le voyage de 34 millions de milles vers le rouge Planète.

Un rapport indépendant sur les ambitions martiennes de la NASA présente un calendrier qui comprend des astronautes mettant le pied sur la Lune d'ici 2028 et une mission en orbite autour de Mars moins d'une décennie plus tard, d'ici 2037.

La confidentialité sera vraiment importante

Après avoir passé une grande partie de la dernière décennie à transmettre nos données à Apple, Facebook et Google via nos smartphones, nos réseaux sociaux et nos recherches, il semble que les gens du monde entier et les gouvernements qui les représentent prennent conscience de la risques que ces sociétés en sachent tant sur nous.

Les 10 prochaines années ne semblent pas différentes, ce n'est que maintenant que nous pouvons ajouter des empreintes digitales, des profils génétiques et des scans du visage à la liste des informations que nous transmettons. Avec le nombre de violations de données – les entreprises ne parviennent pas à sécuriser les données qu'elles détiennent sur nous – augmente chaque année, ce n'est qu'une question de temps avant que les gouvernements n'interviennent, ou comme dans le cas d'Apple, les entreprises technologiques commencent à nous revendre l'idée de la vie privée elle-même.

Internet sera partout

Entre les réseaux 5G et l'Internet qui nous est transmis par les satellites StarLink d'Elon Musk, l'Internet mobile deviendra beaucoup plus rapide et beaucoup plus uniformément réparti au cours de la prochaine décennie.

Ces nouveaux réseaux permettront de développer des domaines technologiques entièrement nouveaux, des voitures sans conducteur au contrôle du trafic aérien par drones en passant par la réalité virtuelle peer-to-peer. Mais ce n'est pas sans ses inconvénients.

SpaceX prévoit de lancer 12 000 satellites au cours des prochaines années pour créer sa constellation StarLink, et des milliers d'autres seront déployés par d'autres sociétés. Plus de satellites signifie plus de risques de collisions et donc plus de débris spatiaux. Il a également été démontré que les satellites interfèrent avec les observations astronomiques et les prévisions météorologiques.

Les villes souterraines vont s'élever

Les gratte-terre pourraient aider à fournir des espaces de vie, de bureau et de loisirs à des populations urbaines de plus en plus nombreuses.

Alors que les populations s'éloignent des zones rurales, les urbanistes cherchent sous leurs pieds des réponses

Avec un espace dans les villes si limité, souvent la seule option pour ceux qui peuvent se permettre d'agrandir leur propriété est de passer sous terre. Les sous-sols de luxe sont déjà une caractéristique sous de nombreuses maisons à Londres, mais avec des populations urbaines appelées à continuer de croître, des développements souterrains commencent à apparaître à une échelle beaucoup plus grande.

Une idée, encore au stade du concept, est le « Gratte-terre » proposé pour Mexico. Cette pyramide inversée de 65 étages a été suggérée comme un moyen de fournir des bureaux, des commerces et des espaces résidentiels sans avoir à démolir les bâtiments historiques de la ville ou à enfreindre sa restriction de hauteur de 8 étages.

Cependant, de nombreuses questions subsistent quant à la faisabilité d'un tel projet, comme la manière d'éclairer, d'éliminer les déchets et de protéger les personnes contre les incendies ou les inondations. Certaines de ces questions ont potentiellement trouvé une réponse avec la construction de l'hôtel Intercontinental Shanghai Wonderland en Chine. Ce complexe de luxe de 336 chambres a été construit dans la paroi rocheuse d'une carrière désaffectée de 88 m de profondeur qui a ouvert ses portes en novembre 2018.

La cité-État insulaire de Singapour explore également ses options souterraines. Non seulement ses Jurong Rock Caverns sont en train d'être transformés en une installation de stockage souterraine pour les réserves de pétrole de la nation, mais il est également prévu de construire une « Cité des sciences souterraine » pour 4 200 scientifiques afin qu'ils effectuent des travaux de recherche et de développement.

À New York, le Lowline Project transforme une station de métro abandonnée en parc. Prévu pour ouvrir en 2021, il utilise un système de paraboles de collecte de lumière en surface pour canaliser suffisamment de lumière dans l'espace souterrain pour faire pousser des plantes, des arbres et de l'herbe.

Nous continuerons à rechercher la vie extraterrestre

La mission de l'Agence spatiale européenne sur Jupiter et ses lunes, JUICE, pourrait être notre meilleur pari pour trouver une vie extraterrestre dans notre système solaire.

Si tout se passe comme prévu, en mai 2022, l'Agence spatiale européenne lancera la première mission de grande envergure de son programme Cosmic Vision. L'explorateur de lunes JUpiter ICy (ou JUICE) lancera une fronde autour de la Terre, de Vénus et de Mars, accélérant la vitesse dont il a besoin pour le propulser vers Jupiter.

JUICE devrait arriver sur la géante gazeuse en 2029, où il commencera probablement l'étude la plus détaillée de la planète à ce jour.

« Il y a deux objectifs », explique le Dr Giuseppe Sarri, chef de projet JUICE. « L'une consiste à étudier Jupiter en tant que système. Jupiter est une géante gazeuse avec plus de 70 lunes, et pour notre compréhension de la formation du système solaire, étudier [ce qui équivaut à] un mini système solaire est scientifiquement utile. Nous étudierons l'atmosphère, la magnétosphère et le système satellitaire.

“The second goal is to explore the three icy moons, Callisto, Ganymede and Europa. Because on those moons there could be conditions that can sustain life, either in the past, present or maybe in the future.”

It’s important to note that JUICE won’t be searching for signs of life on these moons, just the appropriate conditions to support it. In other words, to confirm the presence of salty, liquid water below the surface ice.

“It’s a little bit like below Antarctica. In the water below the ice there are very primitive forms of life so conditions could be similar to what we have below our poles,” says Dr Sarri.

“If there’s a chance to have life in our Solar System, Europa and Ganymede are the places. Unfortunately JUICE won’t be able to see the life but it’ll take the first step in looking for it.”

JUICE may also shed light on the mystery of rings. “It looks as if all the giant planets have rings,” Dr Sarri explains. “In the past, astronomers only saw Saturn’s rings but then rings were found at Uranus, Jupiter and Neptune. Understanding the dynamic of rings will help us understand the formation of these planets.”

Read more about the search for extra-terrestrial life:

Quantum computers will gain supremacy over supercomputers

Complex data, like weather patterns or climate changes, will be crunched though in the fraction of the time.

Dreams of exploiting the bizarre realm of quantum mechanics to create super-powerful computers have been around since the 1980s.

But in 2019 something happened that made lots of people sit up and take quantum computers seriously. Google’s quantum computer, Sycamore, solved a problem that would take conventional computers much, much longer.

In doing so, Sycamore had achieved ‘quantum supremacy’ for the first time – doing something beyond conventional capabilities.

The task Sycamore completed, verifying that a set of numbers were randomly distributed, took it 200 seconds. Google claims it would have taken IBM’s Summit, the most powerful conventional supercomputer, 10,000 years. IBM begs to differ, saying it would only take Summit 2.5 days.

Regardless, this landmark event has given the quantum computer research community a shot in the arm. A blog post by Sycamore’s developers gives a sense of this. “We see a path clearly now, and we’re eager to move ahead.”

But don’t expect to be using a quantum computer at home. It’s more likely to be running simulations in chemistry and physics, performing complex tasks such as modelling interactions between molecules and in doing so, speeding up the development of new drugs, catalysts and materials.

In the longer term, quantum computers promise rapid advances in everything from weather forecasting to AI.


Voices of biotech research

Biotechnologie naturelle asks a selection of faculty about the most exciting frontier in their field and the most needed technologies for advancing knowledge and applications.

What will be the most important areas of research in biotech over the coming years? Which technologies will be most important to advance knowledge and applications in these areas? Biotechnologie naturelle reached out to a set of faculty doing outstanding work in research areas representative of the journal’s remit and asked them to contribute their vision of where their fields are going.

Nasim Annabi: Bioengineering advances have increased foundational interdisciplinary research for creating state-of-the-art medical devices and drug delivery platforms however, there are many challenges in the design and development of reliable technologies. The future trends in this field should focus on dynamic biomaterials, personalized medicine and additive manufacturing to improve both disease diagnostics and treatments. In addition, there is a need for the development of more effective in vitro platforms for developing drugs and testing medical devices to transform the healthcare system through preclinical research and its rapid scale-up and commercialization for effective and safe healthcare solutions.

Matthew Baker: I have an interest in directed evolution and evolutionary microbiology. The 2018 Nobel Prize, partially awarded to Frances Arnold, has bolstered widespread interest in utilizing evolution for approaches in synthetic biology. Major improvements have been made using evolutionary methods for ‘irrational design’ to test and engineer new proteins for new purposes. However, our understanding of emergent complexity — or how complexity increased greatly at certain key moments — remains limited. Experimental evolution is being applied to more complex systems and different species with better screens and higher throughput via automation. This should lead to a better understanding of what the broad ‘rules’ of molecular evolution are and, in turn, refine efforts in synthetic biology and directed evolution of proteins for applications in biotechnology.

Alistair Boettiger: Advances in sequence-resolved super-resolution imaging of the genome are changing how we think about chromatin structure and its roles in cell biology. It is now apparent that the genome doesn’t fold into a stable structure, the way many proteins do. It is a large and flexible molecule, in which no two cells adopt the same fold at any given point in time. Understanding how this flexibility facilitates genome processes like transcriptional regulation, replication and repair will be driven forward by deeper integration of microscopy and sequencing approaches, new multimodal ’omic imaging, and microscopy-informed computational modeling.

Debojyoti Chakraborty: Detecting and correcting diseases requires precise molecular tools. The promise shown by ongoing gene editing trials for hemoglobinopathies has truly put CRISPR on track for therapeutic interventions. With the development of novel editors, cleavage-free genome engineering and robust delivery options, the coming years would see active clinical evaluation of in vivo genome editing — a challenging frontier. At the same time, the evolution of more sensitive and inexpensive CRISPR diagnostics platforms suited to a wide range of diseases would bring the benefits of early detection of disorders. This may be invaluable in developing countries.

Yvonne Chen: Cell-based immunotherapy has broken new grounds in treating previously intractable diseases. Efforts in biomolecular engineering and synthetic biology continue to enhance our ability to engineer synthetic proteins that predictably impact cell behavior, moving the field away from a trial-and-error basis and toward true rational design. The development and integration of multilayered genetic circuitry offer the possibility of greater versatility and control over engineered cells. To reach their maximum potential, such designs must also be grounded in the realities of clinical implementation and engineered with an eye toward system robustness in the face of significant variabilities in human physiology.

Kizzmekia S. Corbett: As the COVID-19 pandemic has beckoned for rapid development of safe and effective vaccines, vaccinology is being transformed before our eyes. Now, the looming question for the field is not “Will novel viruses arise?” but “How can we be better prepared when they do?” The use of mRNA platforms awakens a new era of vaccine development that will rely on a critical intersection of basic science, precise antigen design, novel platform discovery and concerted global efforts towards pandemic preparedness.

Bruno Correia: We continue to witness incredible advances in the broad field of molecular design. The ever-larger (and growing) data reservoirs, empowered both by unprecedented advances in computational analysis and by our ability to extract functional principles, are having a transformative impact. In the area of protein design, I foresee an increasing capacity to engineer extra mechanistic layers into amino acid sequences, allowing us to create ‘smarter drugs’ with multiple controllable activities. Another exciting dimension is where protein design interfaces with cell-based therapies, which will open up many new important avenues for next-generation therapies.

James Dahlman: Millions of patients have been treated via lipid nanoparticle (LNP)-mediated mRNA delivery however, this emerging drug modality is limited to intramuscular administration or systemic liver targeting. To realize the clinical potential of RNA drugs, we must design LNPs that target new tissues after systemic administration, which likely means analyzing thousands of chemically distinct LNPs directly in vivo. DNA-barcoded nanoparticles make this increasingly plausible, enabling study of more than 100 LNPs in a single animal. The key lesson from DNA-barcoded nanoparticles, which should be applied to drug delivery in the future, is that bioengineering technologies used to perturb and characterize cells (for example, single-cell RNA-seq and multi-omics) can be repurposed to study targeted, systemic delivery in exciting new ways.

Tulio de Oliveira: In the field of genomic surveillance, one of the most exciting developments is genotype-to-phenotype characterization in real time. For example, within weeks of the discovery of novel SARS-CoV-2 variants, researchers were able to determine how the genetic variation affected vaccine response.

Ali Ertuerk: Moving from generalized and flawed treatments to personalized medicine requires merging unbiased and scalable technologies. Advances in single-cell multi-omics and organoid models have facilitated the assessment of patient heterogeneity. By combining these technologies with unbiased imaging of intact biological specimens using tissue clearing and end-to-end artificial intelligence (AI)-based analysis, we can achieve a much-needed million-fold scaling of human organ mapping and investigation of diseases at the single-cell level. Although DNA nanotechnology can help target desired cells in vivo for drug delivery or gene editing, the cellular maps can serve as templates to generate new human organs using three-dimensional (3D) bioprinting for millions in need. This multidisciplinary approach will fast-track personalized treatments of complicated diseases and enable healthy living beyond 100 years.

Mehmet Fatih Yanik: In the near future, implantable brain–machine interfaces based on biocompatible materials will be substantially less invasive while covering more brain areas and allowing neuronal-resolution measurements of rapidly varying brain networks. Technologies like focused ultrasound will be miniaturized and make it possible to focally deliver receptor-specific drugs non-invasively to specific circuits deep within the brain without causing off-target effects. Closed-loop implementation of such measurement and manipulation capabilities using AI algorithms to simultaneously analyze both brain networks and behavior are likely to enable unique opportunities for the treatment of brain disorders. These advances will present interesting regulatory, legal and ethical challenges.

Elizabeth Henaff: The individual microbiome manifests the continuum between organism and environment. The next frontier of biotechnology is putting biological metrics, such as metagenomics, in the hands of the designers who create our built environments: architects and city planners. How can the discipline of design, an inherently human-centered practice, learn from the field of metagenomics? These metrics help us contextualize human health and well-being within the multispecies ecosystems we inhabit. Design for humans will become design for the more-than-human. The key will be to focus on relational and radical inclusion, with biotechnological interfaces designed for collaborative survival across scales and species.

Meritxell Huch: One of the most exciting developments in human cell biology has been the establishment of ‘organoids’ — human 3D cultures that faithfully recapitulate some of the function of the corresponding tissue. Derived either from pluripotent stem cells, by a stepwise differentiation process, or from differentiated (either adult or fetal) tissue, these self-organizing structures provide a unique system wherein to identify basic principles of human organ development, tissue regeneration and disease. Their ability to recapitulate organogenesis is revolutionizing the way we study human development. Similarly, the remarkable expansion potential of human organoid cultures derived from adult or fetal cells is opening up opportunities for biomedical research applications, ranging from cellular sources for cell therapy or transplantation to drug screening platforms for personalized medicine. Many challenges remain, ranging from increasing cellular complexity to improving scalability or cellular maturation. Once surmounted, we will enter a new era where studying basic principles of organ development, maintenance, regeneration and disease in human tissues will become a reality.

Iliyan D. Iliev: For many years, fungal research has been an important driving force in biotechnology and medicine. Recent discoveries place fungi as an integral part of the microbiome, key modulators of immunity and health, and rich sources of biologically active metabolites. Aided by advances in ’omics technologies, data integration and experimental platforms and a revolution in genome editing, we are now poised to decipher fungal activities and host–fungal interactions at an unprecedented level in individual patients. New therapeutic developments modulating such interactions or targeting the fungal arm of the microbiome will be the next challenge.

Thomas Jacobs: One of the most exciting developments I see is the ability to make precise, large-scale perturbations to eukaryotic genomes. From combinatorial genetic screens to synthesis and reorganization on a large scale, we are getting closer to having the ability to precisely modify entire genomes of organisms at will. This will allow us to test hypotheses on genome structure, organization and gene regulatory networks in the wet lab, with applications in agriculture and biomedicine. To accomplish this, we will need to develop both methods for more accurate DNA synthesis that are orders of magnitude cheaper, and simple bioinformatic tools so the average student or postdoc can easily design, analyze and interpret these increasingly combinatorial experimental systems.

Howard Junca: Biomarkers, bioactivities and bioprocesses can contribute to achieving sustainability in the Anthropocene: a thrilling and challenging time for environmental biotechnology and microbiome research. ‘One Health’ approaches to critical trends — rewilding Earth’s ecosystems and functional restoration, xenobiotic containment and bioremediation, changes in production and consumption of goods, and responses to emerging diseases — all can greatly benefit by integrating microbiome engineering and transplantation. Disruptive computational power and approaches for biodata mining and AI pattern recognition will boost detection, cultivability, prediction and design of novel natural and synthetic components, metabolic network interdependencies and their combinatorial effects inside microbiomes and in holobiont associations.

Albert Keung: Synthetic biology has accomplished many wonderful things by integrating our rapidly expanding understanding of biological parts and their functions into sophisticated systems. One intriguing question is how we might address problems that require substantial scaling. Although traditional engineering disciplines have developed frameworks to guide scaling, biological systems — often within what one would find in just a microliter of fluid — can present orders of magnitude higher levels of distinct and diverse intermolecular interactions than the largest chemical process industrial plant. Engineering regulatory systems within cells or storing exabytes of digital information in a billion, billion distinct DNA strands are just a few examples of extreme scaling that will demand new design and engineering frameworks.

Ilana Kolodkin-Gal: In ancient Greece, Socrates and Plato founded Western scientific philosophy by integrating logic, poetry, math and natural sciences. The current renaissance of microbial biotechnology similarly erases the artificial boundaries between genetics, chemistry, data science, ecology and even social sciences to utilize natural bacterial abilities. Microbial enzymes and exopolymers are used in biomedical and food industries while bacterial communal properties are explored to generate living concrete, novel drugs and higher crop productivity. Modern microbial biotechnology can overcome reactionary responses to the vital synthesis of traditional disciplines. Furthermore, it demonstrates that the coevolution of academy and industry is not a compromise, but rather an essential step for advancing scientific excellence.

Smita Krishnaswamy: Biomedical data are being generated at an extremely high throughput and in many dimensions. Initial phases of analysis involved tasks such as denoising, batch correction and basic dimensionality reduction. However, there is a big gap between data analysis and insight generation. I believe that the next phase will involve integrated analysis of multitudes of related datasets collected under many conditions and across modalities instead of an isolated focus on individual datasets. This will allow us to model the underlying systems as stochastic, complex and dynamic entities. From such models, we could infer mechanistics and even simulate potential therapies or alterations of the system.

Madeline Lancaster: Exciting discoveries in human neurobiology will come from the intersection of highly diverse methods, from genetics and transcriptomics to imaging and electrophysiology. These approaches will enable detailed characterization of cell types and neuronal connectivity. In this context, brain organoids will provide a tractable system for further information across time and even across species. But such neural tissues are of particular interest for their use in functional studies, allowing one to test resultant hypotheses through genetic or other perturbations. These varied approaches will begin to provide a mechanistic understanding of human brain development and function.

Evan Macosko: The use of DNA to barcode and quantify biomolecules powered the recent ‘single cell revolution’. In combination with new developments in microscopy and molecular biology, DNA will increasingly be the readout of choice for biochemical and cell biological assays in situ. Protein–protein interactions, cell signaling dynamics and metabolic state will all be encodable in DNA, enabling multiplexed, high-throughput measurements. In the brain, application of these technologies to the study of neural connectivity, electrical activity and functional plasticity will be transformative. I hope such assays finally provide the level of detail needed to understand the many brain diseases whose mechanisms remain mysterious.

Mario Alberto Martínez-Núñez: The development of omics technologies and their coupling to synthetic biology will allow in the near future not only the exploration or modeling of microbiomes for the search for environmental or biotechnological solutions, but also their control. The union and development of these fields will allow us to go from ex situ experiments to in situ implementations, such as the design, construction and control of communication between the elements of the microbiomes, allowing us to regulate not only cell behavior, but also production of molecules of interest in situ.

Kyoko Miura: Research on long-lived species, such as naked mole-rats, blind mole-rats, bats, whales, elephants and long-lived trees, presents unique opportunities for identifying novel strategies to prevent aging and age-related diseases, including cancer. We believe that the development of genome editing, induced pluripotent stem (iPS) cells, and multi-omics technologies in the naked mole-rat, the longest-lived rodent, could pave the way to a fundamental cure for aging and cancer in humans. Combining studies in this new animal model with the rapidly progressing human iPS cell and organoid technologies could ultimately allow treatment of a variety of diseases and injuries.

Jenny Molloy: During COVID-19, the impact of biotechnology on our daily lives and incredible recent advances in bioengineering, biomanufacturing and bioinformatics have never been more visible. However, not everyone can access biotechnology’s benefits — partly because the tools and agency to shape the field are very unevenly distributed. This has to change. Nurturing talent and ideas from all parts of the world is essential for a thriving and equitable global bioeconomy. We have the means: enabling technologies are being democratized, digital tools for sharing know-how are flourishing and open sharing of data and materials is accelerating. We will see a more diverse biotech community emerging that benefits even more of the planet.

Andrés Ochoa Cruz: Discovery has always been part of the human spirit. Coronavirus has opened the discussion of and interest in understanding science all over the globe. Involving people in scientific understanding is one of the pillars of the citizen-science movement. I am excited about technologies and tools that are helping us to understand biology more deeply: synthetic biology that merges engineering, biology and mathematics machine learning that helps us to make sense of the large amount of data that we produce in genomics and finally, self-quantification and health data analysis that can encourage greater public engagement with science and help people understand their own biology.

Randall J. Platt: Fueled by advancements in biological engineering, DNA sequencing and DNA data storage, it is now possible to encode biological events in DNA and subsequently reconstruct cellular histories — providing an entry point into understanding the relationship between cellular lineages, transcriptomes, interactions and environments. The development of new molecular tools enabling the scalable encoding and integration of multimodal features within single cells and across multicellular systems will usher biology into a radically new era where biological systems can tell you their complex biographies spanning time, space, development, perturbation, health and disease.

Avery D. Posey, Jr.: Cellular immunotherapy demonstrated ground-breaking advances for the treatment of blood cancers and budding activity against solid malignancies over the past decade. In the next decade, important objectives for improving the efficacy of cell therapy will be to identify optimal cell types and sources, expand tumor targeting to exploit differential post-translational modifications, revisit immune signaling pathways to identify opportunities to enhance potency and resist exhaustion, and alleviate immunosuppressive microenvironments through combination therapies, including novel synthetic molecules. Multi-omics technologies will improve our understanding of the factors driving responses to cell therapies and the relationship between innate, adaptive and engineered immunity within tumors.

Huilin Shao: I am most excited about the development of new nanotechnologies — biological, physical and integrative — to empower molecular diagnostics. Improved precision in their design and engineering will bring forth enabling tools for basic discovery and clinical translation. These can redefine biomarkers, revealing insights from the currently unmeasurable, and influence patient care, through earlier and safer diagnostics and real-time treatment monitoring.

Mijo Simunovic: Organoids have created unique opportunities for modeling mammalian development in the lab, leaping into a new era of synthetic organogenesis. Although pathways to generating individual organs are strikingly similar across many species, the human embryo is a world apart from a mouse or an elephant. Our next challenge is to leverage tissue engineering and genome editing to faithfully mimic the complex signaling gradients and the mechanical microenvironments of developing human organs. These efforts will not only enable a rationally designed program to reproducibly generate human tissues from pluripotent stem cells, but also open doors to answering perhaps one of the oldest questions in biology: what makes us human?

Nikolai Slavov: Single-cell multi-omics technologies are rapidly expanding. An exciting frontier is the comprehensive quantification of protein activities, interactions and conformations with single-cell resolution across time and space. Such analyses will be powered by emerging single-cell mass spectrometric technologies. These technologies will build quantitative biochemical and biophysical models of cellular systems and discover new drug targets. The success of such analyses will require (i) careful selection and sampling of relevant in vivo systems, including patient samples, and (ii) integration of multi-omics methods that analyze both cells and their environments. Areas poised to benefit from these developments include immuno-oncology, autoimmunity, neuroscience and developmental biology.

Takanori Takebe: Personalization — My Medicine’ — will shape the future of medical practice and push humanity towards a better life. The advent of organoid research has offered a platform to study human health and disease, but going forward the technological convergence of evolving toolboxes, such as gene editing, transcriptomics, imaging and bioengineering, will act synergistically to enable personalized prediction of disease onset, prevention of disease, improved efficacy and safety of medical interventions and, ultimately, personalized regenerative therapy as human organoid research progresses.

Luk H. Vandenberghe: The era of genetic medicine has started. The past years have shown that gene therapy can have a durable and transformative impact on disease and patients’ lives. What is in front of us is exciting on many levels. For one, with the innovation in omics, the knowledge base of the targets we can pursue increases daily. Second, the creativity explosion on how we can molecularly intervene at those disease targets by editing, silencing or augmenting approaches is bringing a precision to the design table that often is critical to make a meaningful gene drug. Third, gene delivery, the focus of much of our work, often remains the Achilles heel to success in the clinic. Here too we see novel modalities, such as non-viral gene delivery (even mRNA for vaccines) and refinement of existing ones such as adeno-associated virus (AAV) to improve pharmacological control of this new class of drugs.

Rajeev K. Varshney: The advent of contemporary genome sequencing tools and platforms have enabled researchers to sequence most of the crops and plant species, including so-called orphan crops in developing countries. This has led to a better understanding of the genome architecture and the molecular basis of traits of interest for developing improved crop varieties addressing climate change, food, health, and nutrition security. We anticipate generation of massive amounts of sequence data not only at the single-cell level in plants, but also at the population level from the field. It will be exciting to see how of artificial intelligence and machine learning are applied to these datasets to enhance accuracy of genomic prediction for accelerated crop improvement programs.

Jianbin Wang: Single-cell transcriptomics has propelled the identification of cell types in various organs and systems. Now basic and clinical fields are looking beyond cell type and expecting a more comprehensive understanding of cellular status in primary tissue. This requires not only gene expression profiles, but more importantly cell signaling cascades from receptor activation to transcription factor binding, which should be integrated with histology and pathology information at single-cell resolution. Technology breakthroughs for precise measurement of various biomolecules are necessary to achieve this goal.


We have the tools and we will use them

The described systems (Table 1), which are based on dual plant infections utilizing AM fungi and pathogens, will allow us to challenge findings obtained previously in either pathogen or symbiosis research. This will give insights into the commonalities and differences of both types of interaction outcomes. Moreover, several biotrophic pathogens (M. oryzae, P. palmivora), endophytes (P. indica) and beneficial AM fungi (G. irregularis) are directly applicable on rice, barley and other dicot crops, thereby bypassing the step to transfer knowledge of mechanisms from model plants into application.

Systems that form specialized intracellular structures will be integral in solving open questions on filamentous microbe interactions with plants. We need to elucidate how similar arbuscules and pathogen interfaces are [9], and whether they generally also serve as devices for nutrient uptake [37]. Knowledge on general and specific transport mechanisms between microbe and plant may be decisive for our ability to protect plants from pathogens while maintaining symbiosis.

Common sets of regulated genes point to a large overlap in development processes during beneficial and detrimental interactions [19] however, we still need to clarify whether observed structural features, such as the pre-penetration apparatus formed during root colonization by AM fungi [38] or the typical tree-like branching of AM fungal arbuscules, are defined by the microbe species or the plant, or both.

Root-colonizing microbes are guided by chemical plant signals but we do not know the extent to which these signals overlap. For example, plant flavonoids act as attractants for mobile oomycete zoospores and beneficial nitrogen-fixing root bacteria, while symbiotic fungi but also parasitic Striga hermontica plants perceive strigolactones released by the plant [39, 40]. Whether some filamentous pathogens are consistently responsive to strigolactones remains to be clarified [41].

Furthermore, it is important to identify contrasting principles in effector-mediated reprogramming and immune suppression between symbiotic microbes and pathogens. This might enable us to engineer the host processes they target in order to direct the outcome of an interaction towards the beneficial side.


Voir la vidéo: Webinar 2: les maladies lysosomales replay (Décembre 2022).