EN

Le progrès de la sûreté de l’IA par la collaboration, la recherche et l’éducation.

Ce que nous faisons

Depuis 2024 · 275+ abonnés

Séminaires IA garantie sécuritaire Séminaires techniques mensuels sur les approches quantitatives et garanties de sûreté. Nous recevons des chercheurs de premier plan dont Yoshua Bengio, Steve Omohundro, Tan Zhi Xuan et Jobst Heitzig.

Depuis 2025 · 1600+ membres

Sûreté de l’IA à Montréal Hub local qui sert la communauté montréalaise en sûreté, éthique et gouvernance de l’IA. Meetups, sessions de cotravail, ateliers ciblés, accompagnement et collaborations.

Depuis 2025

Coordination canadienne en sûreté de l’IA Groupe de coordination entre organisations canadiennes et réseau travaillant vers la sûreté de l’IA.

Depuis 2018 · 400+ chercheurs

AI Safety Unconference Événements dirigés par les participants avec présentations, sessions, discussions modérées et rencontres individuelles. Nous avons organisé AI Safety Unconference @ NeurIPS (2018–2022), Virtual AI Safety Unconference (2024), et une édition hybride prévue pour 2026.

Depuis 2024

Horizon Events Nous organisons plusieurs séries d’événements mondiaux en sûreté de l’IA. Nous soutenons l’écosystème élargi d’événements et d’initiatives en sûreté de l’IA.

Bilan

Nous avons mobilisé des milliers de participants à travers nos événements et canaux depuis 2018. Nous bâtissons une communauté qui compte maintenant 1600+ membres à Montréal et facilité la collaboration inter-organisationnelle à l’échelle mondiale.

2018–2022

AI Safety Unconference @ NeurIPS Années de rassemblements dirigés par les participants avec présentations éclair, discussions modérées et sessions individuelles. 60+ participants par événement provenant d’organismes de premier plan dont Anthropic, DeepMind, OpenAI, Mila, MIRI, MIT, Stanford, Oxford, Cambridge et plus.

2024–présent

Séminaires IA garantie sécuritaire Présentations techniques mensuelles avec 15–30 participants en direct par session, et 600+ inscriptions totales annuellement. Conférenciers invités : Yoshua Bengio, Steve Omohundro, Tan Zhi Xuan et Jobst Heitzig.

2025–présent

Communauté sûreté de l’IA de Montréal Nous avons bâti l’écosystème local par des meetups, des sessions de cotravail, des ateliers ciblés et la coanimation du groupe de lecture en sûreté de l’IA de Mila (sessions bihebdomadaires avec 10–20 chercheurs). Nous servons des membres en sûreté, éthique et gouvernance de l’IA.

2022, 2025

Atelier Limits to Control Coorganisation d’un atelier centré sur les difficultés ou impossibilités de contrôler des systèmes d’IA avancés. L’édition 2025 a réuni des chercheurs pour cartographier le territoire des limites de contrôle de l’IA et a produit un énoncé collectif.

2023–présent

Infolettre AI Safety Events & Training Nous avons fondé son Substack en 2023, contribuant à la curation d’événements et à la croissance de la communauté.

Ce que disent les participants

« Utile pour suivre les avancées et lancer des collaborations. » — Haydn Belfield, Google DeepMind

« Très utile pour rencontrer et discuter avec les chercheurs en sûreté de l’IA à NeurIPS. » — Esben Kran, Apart Research

« Une excellente façon de rencontrer les meilleures personnes du domaine et propulser des idées audacieuses. » — Stuart Armstrong, Aligned AI

« Les petits groupes de discussion m’ont exposé à de nouvelles perspectives. » — Adam Gleave, FAR.AI

Impliquez-vous

Bénévolat Nous accueillons des bénévoles pour les opérations des séminaires, les synthèses de recherche, la sollicitation de conférenciers et le montage vidéo. Formation et gabarits fournis.

Partenariat Nous collaborons avec des universités, des labos, des ONG et des organismes de normalisation pour coorganiser des sessions, partager des conférenciers et bâtir des projets pilotes.

Soutien Votre soutien nous permet d’élargir nos collaborations, événements et recherches. Commandites, subventions et contributions en nature (hébergement de lieu, sous-titrage, montage, design) bienvenues.

Conseillers Nous cherchons des conseillers séniors en vérification, évaluations et gouvernance. Politique de conflit d’intérêts applicable.

Suivi Restez au courant des événements en sûreté de l’IA, des opportunités de formation et de nos dernières initiatives. Abonnez-vous à notre infolettre et suivez-nous sur les réseaux sociaux.

Remerciements

Contributeurs

Orpheus LummisFondateur
Étienne LangloisCoordination et stratégie en sûreté de l’IA
Linda LinseforsConseillère, événements et sûreté de l’IA
Arjun YadavSoutien généraliste et événements
Manu GarcíaSpécialiste en communications et coordination d’événements
Pascal HuynhDesign d’événements et d’interactions
Nicolas GrenierConseiller, worlding
Richard MallahConseiller, série AI Safety Unconference
Mario GibneyConseiller, développement du domaine de la sûreté de l’IA
Diego JiménezStratégie IA et opérations événementielles
Vaughn DiMarcoConseiller, série AI Safety Unconference
David KruegerCoorganisateur, série AI Safety Unconference

Bailleurs de fonds et commanditaires

Nous sommes limités par le financement. Les dons sont appréciés et financent des projets à fort impact. Faire un don.

Contact

Nous aimerions avoir de vos nouvelles. Contactez-nous pour discuter de collaborations, poser des questions ou explorer des opportunités de travailler ensemble sur des initiatives en sûreté de l’IA.

Contactez-nousPlanifiez un appel