Ce que nous faisons
Séminaires IA garantie sécuritaire Séminaires techniques mensuels sur les approches quantitatives et garanties de sûreté. Nous recevons des chercheurs de premier plan dont Yoshua Bengio, Steve Omohundro, Tan Zhi Xuan et Jobst Heitzig.
Sûreté de l’IA à Montréal Hub local qui sert la communauté montréalaise en sûreté, éthique et gouvernance de l’IA. Meetups, sessions de cotravail, ateliers ciblés, accompagnement et collaborations.
Coordination canadienne en sûreté de l’IA Groupe de coordination entre organisations canadiennes et réseau travaillant vers la sûreté de l’IA.
AI Safety Unconference Événements dirigés par les participants avec présentations, sessions, discussions modérées et rencontres individuelles. Nous avons organisé AI Safety Unconference @ NeurIPS (2018–2022), Virtual AI Safety Unconference (2024), et une édition hybride prévue pour 2026.
Horizon Events Nous organisons plusieurs séries d’événements mondiaux en sûreté de l’IA. Nous soutenons l’écosystème élargi d’événements et d’initiatives en sûreté de l’IA.
Bilan
Nous avons mobilisé des milliers de participants à travers nos événements et canaux depuis 2018. Nous bâtissons une communauté qui compte maintenant 1600+ membres à Montréal et facilité la collaboration inter-organisationnelle à l’échelle mondiale.
AI Safety Unconference @ NeurIPS Années de rassemblements dirigés par les participants avec présentations éclair, discussions modérées et sessions individuelles. 60+ participants par événement provenant d’organismes de premier plan dont Anthropic, DeepMind, OpenAI, Mila, MIRI, MIT, Stanford, Oxford, Cambridge et plus.
Séminaires IA garantie sécuritaire Présentations techniques mensuelles avec 15–30 participants en direct par session, et 600+ inscriptions totales annuellement. Conférenciers invités : Yoshua Bengio, Steve Omohundro, Tan Zhi Xuan et Jobst Heitzig.
Communauté sûreté de l’IA de Montréal Nous avons bâti l’écosystème local par des meetups, des sessions de cotravail, des ateliers ciblés et la coanimation du groupe de lecture en sûreté de l’IA de Mila (sessions bihebdomadaires avec 10–20 chercheurs). Nous servons des membres en sûreté, éthique et gouvernance de l’IA.
Atelier Limits to Control Coorganisation d’un atelier centré sur les difficultés ou impossibilités de contrôler des systèmes d’IA avancés. L’édition 2025 a réuni des chercheurs pour cartographier le territoire des limites de contrôle de l’IA et a produit un énoncé collectif.
Infolettre AI Safety Events & Training Nous avons fondé son Substack en 2023, contribuant à la curation d’événements et à la croissance de la communauté.
Ce que disent les participants
« Utile pour suivre les avancées et lancer des collaborations. » — Haydn Belfield, Google DeepMind
« Très utile pour rencontrer et discuter avec les chercheurs en sûreté de l’IA à NeurIPS. » — Esben Kran, Apart Research
« Une excellente façon de rencontrer les meilleures personnes du domaine et propulser des idées audacieuses. » — Stuart Armstrong, Aligned AI
« Les petits groupes de discussion m’ont exposé à de nouvelles perspectives. » — Adam Gleave, FAR.AI
Impliquez-vous
Bénévolat Nous accueillons des bénévoles pour les opérations des séminaires, les synthèses de recherche, la sollicitation de conférenciers et le montage vidéo. Formation et gabarits fournis.
Partenariat Nous collaborons avec des universités, des labos, des ONG et des organismes de normalisation pour coorganiser des sessions, partager des conférenciers et bâtir des projets pilotes.
Soutien Votre soutien nous permet d’élargir nos collaborations, événements et recherches. Commandites, subventions et contributions en nature (hébergement de lieu, sous-titrage, montage, design) bienvenues.
Conseillers Nous cherchons des conseillers séniors en vérification, évaluations et gouvernance. Politique de conflit d’intérêts applicable.
Suivi Restez au courant des événements en sûreté de l’IA, des opportunités de formation et de nos dernières initiatives. Abonnez-vous à notre infolettre et suivez-nous sur les réseaux sociaux.
Remerciements
Contributeurs
| Orpheus Lummis | Fondateur |
| Étienne Langlois | Coordination et stratégie en sûreté de l’IA |
| Linda Linsefors | Conseillère, événements et sûreté de l’IA |
| Arjun Yadav | Soutien généraliste et événements |
| Manu García | Spécialiste en communications et coordination d’événements |
| Pascal Huynh | Design d’événements et d’interactions |
| Nicolas Grenier | Conseiller, worlding |
| Richard Mallah | Conseiller, série AI Safety Unconference |
| Mario Gibney | Conseiller, développement du domaine de la sûreté de l’IA |
| Diego Jiménez | Stratégie IA et opérations événementielles |
| Vaughn DiMarco | Conseiller, série AI Safety Unconference |
| David Krueger | Coorganisateur, série AI Safety Unconference |
Bailleurs de fonds et commanditaires
| Long‑Term Future Fund (EA Funds) |
| Survival and Flourishing Fund |
| Effective Altruism Foundation |
| Future of Life Institute |
Nous sommes limités par le financement. Les dons sont appréciés et financent des projets à fort impact. Faire un don.
Contact
Nous aimerions avoir de vos nouvelles. Contactez-nous pour discuter de collaborations, poser des questions ou explorer des opportunités de travailler ensemble sur des initiatives en sûreté de l’IA.
Contactez-nousPlanifiez un appel