AKOOL Research

Bienvenue dans notre centre de recherche, où nous présentons des travaux révolutionnaires dans le domaine de GenAI.

Publications en vedette

Un préalable basé sur l'énergie pour la saillance générative

Auteurs : Jing Zhang, Jianwen Xie, Nick Barnes, Ping Li
Journal : Transactions IEEE sur l'analyse des modèles et l'intelligence artificielle (TPAMI), 2023

Dans cet article, nous présentons un nouveau a priori basé sur l'énergie pour les modèles de saillance génératifs. Notre approche améliore l'interprétabilité et les performances de la détection de saillance en intégrant des techniques basées sur l'énergie, ce qui permet d'obtenir des résultats plus précis et plus fiables dans diverses applications.

Lisez le document

Apprentissage de modèles basés sur l'énergie par probabilité de reprise par diffusion coopérative

Auteurs : Yaxuan Zhu, Jianwen Xie, Ying Nian Wu, Ruiqi Gao
Conférence : Douzième Conférence internationale sur les représentations de l'apprentissage (ICLR), 2024

Cette recherche présente une méthode innovante pour apprendre des modèles basés sur l'énergie en utilisant la probabilité de récupération par diffusion coopérative. Notre approche tire parti des atouts de l'apprentissage coopératif et des processus de diffusion pour améliorer l'efficacité de la formation et l'efficacité des modèles basés sur l'énergie.

Lisez le document

Apprentissage coopératif progressif basé sur l'énergie pour la traduction d'image à image multidomaines

Auteurs : Weinan Song, Yaxuan Zhu, Lei He, Ying Nian Wu, Jianwen Xie
Archive : Archive IV, 2024

Nous proposons un cadre d'apprentissage coopératif progressif basé sur l'énergie pour la traduction d'image en image multidomaine. Cette méthode permet de relever les défis de l'adaptation et de la traduction des domaines en affinant progressivement le processus d'apprentissage, ce qui se traduit par des performances supérieures dans de nombreux domaines.

Lisez le document

Transformateur de plan latent pour l'abstraction de trajectoires : la planification comme inférence spatiale latente

Auteurs : Deqian Kong, Dehong Xu, Minglu Zhao, Bo Pang, Jianwen Xie, Andrew Lizarraga, Yuhao Huang, Sirui Xie, Ying Nian Wu

Dans cet article, nous présentons le Latent Plan Transformer, un nouveau cadre qui traite la planification comme une inférence de variables latentes. Notre approche combine les forces des transformateurs et des modèles de variables latentes pour réaliser une planification robuste et efficace dans des environnements complexes.

Conférence : 38e Conférence sur les systèmes de traitement de l'information neuronale (NeurIPS 2024)

Lisez le document

CoopHash : apprentissage coopératif d'un descripteur polyvalent et d'un générateur de paires contrastives via l'enseignement variationnel MCMC pour le hachage d'images supervisé

Auteurs : Khoa Doan, Jianwen Xie, Yaxuan Zhu, Yang Zhao, Ping Li

CoopHash introduit une nouvelle approche du hachage d'images supervisé grâce à l'apprentissage coopératif. En s'appuyant sur l'enseignement de la méthode de Monte Carlo par chaîne de Markov variationnelle (MCMC), il optimise simultanément un descripteur polyvalent et un générateur de paires contrastives. Cette méthode innovante améliore l'efficacité et la précision du hachage des images, ce qui en fait une avancée significative dans ce domaine.

Lisez le document

Odyssée basée sur l'énergie latente : optimisation de la boîte noire grâce à une exploration étendue de l'espace latent basé sur l'énergie

Auteurs : Peiyu Yu, Dinghuai Zhang, Hengzhi He, Xiaojian Ma, Ruiyao Miao, Yifan Lu, Yasi Zhang, Deqian Kong, Ruiqi Gao, Jianwen Xie, Guang Cheng, Ying Nian Wu

Cet article présente une nouvelle méthode d'optimisation en boîte noire connue sous le nom d'Odyssée basée sur l'énergie latente. L'approche se concentre sur une exploration élargie au sein d'un espace latent basé sur l'énergie, améliorant ainsi le processus d'optimisation. En tirant parti du paysage énergétique de l'espace latent, la méthode améliore l'efficience et l'efficacité des tâches d'optimisation, ce qui en fait une avancée significative dans le domaine de l'apprentissage automatique et de l'optimisation.

Lisez le document

Conception de molécules par un transformateur rapide latent

Auteurs : Deqian Kong, Yuhao Huang, Jianwen Xie, Édouard Honig, Ming Xu, Shuanghong Xue, Pei Lin, Sanping Zhou, Sheng Zhong, Nanning Zheng, Ying Nian Wu

Nous proposons le Latent Prompt Transformer (LPT), un nouveau modèle génératif permettant de résoudre le problème difficile de la conception de molécules. Les expériences démontrent que le LPT permet non seulement de découvrir efficacement des molécules utiles dans le cadre de tâches d'optimisation à objectif unique, à objectifs multiples et à structure limitée, mais qu'il présente également une forte efficacité d'échantillonnage.

Lisez le document

À propos de nous

Notre équipe est composée de chercheurs renommés issus d'institutions prestigieuses, qui travaillent en collaboration pour faire avancer le domaine de l'intelligence artificielle. Nous nous concentrons sur le développement de solutions innovantes qui répondent à des problèmes du monde réel et contribuent à l'ensemble de la communauté scientifique.

Restez connectés

Contactez-nous : Pour toute demande de renseignements, pour toute collaboration ou pour plus d'informations sur nos recherches, veuillez nous contacter à l'adresse info@akool.com.