AIJB

ai ethiek

Ethical boundaries in AI defence: Who bears the responsibility?

Ethical boundaries in AI defence: Who bears the responsibility?

2025-10-28 journalistiek

den haag, dinsdag, 28 oktober 2025.
In a recent episode of the BNR podcast De Strateeg, analyst Sofia Romansky and professor Jeroen van den Hoven discuss the ethical implications of AI in defence. They emphasise the need for accountability when autonomous weapons make mistakes and how international cooperation can help prevent an AI arms race. One of the most intriguing questions they raise is who is responsible if an autonomous weapon makes an error.

Limites éthiques dans la défense IA : Qui porte la responsabilité ?

Limites éthiques dans la défense IA : Qui porte la responsabilité ?

2025-10-28 journalistiek

den haag, dinsdag, 28 oktober 2025.
Dans un récent épisode du podcast BNR De Strateeg, l’analyste Sofia Romansky et le professeur Jeroen van den Hoven discutent des implications éthiques de l’IA dans la défense. Ils soulignent la nécessité de responsabilité en cas d’erreurs des armes autonomes et comment la coopération internationale peut aider à prévenir une course aux armements basée sur l’IA. L’une des questions les plus intrigantes qu’ils abordent est : qui est responsable si une arme autonome commet une erreur ?

Ethische grenzen in AI-defensie: Wie draagt de verantwoordelijkheid?

Ethische grenzen in AI-defensie: Wie draagt de verantwoordelijkheid?

2025-10-28 journalistiek

den haag, dinsdag, 28 oktober 2025.
In een recente aflevering van de BNR podcast De Strateeg bespreken analist Sofia Romansky en hoogleraar Jeroen van den Hoven de ethische implicaties van AI in de defensie. Ze leggen de nadruk op de noodzaak van verantwoordelijkheid bij fouten van autonome wapens en hoe internationale samenwerking kan helpen om een wapenwedloop met AI te voorkomen. Een van de meest intrigante vragen die ze aanroeren is wie verantwoordelijk is als een autonoom wapen een fout maakt.

Jeff Dean on AGI: Ethics and Responsibility in Silicon Valley

Jeff Dean on AGI: Ethics and Responsibility in Silicon Valley

2025-09-11 journalistiek

parijs, donderdag, 11 september 2025.
During a conference in Paris, Jeff Dean, leader of Google AI, discussed the company’s cautious approach to Artificial General Intelligence (AGI). He emphasised the ethical challenges and the need for responsible development, taking into account the impact on society. Dean proposes that an international framework be established for the development and implementation of AGI, to minimise risks and maximise benefits.

Jeff Dean sur l'AGI : Éthique et Responsabilité dans la Vallée du Silicium

Jeff Dean sur l'AGI : Éthique et Responsabilité dans la Vallée du Silicium

2025-09-11 journalistiek

parijs, donderdag, 11 september 2025.
Lors d’une conférence à Paris, Jeff Dean, leader de Google AI, a abordé l’approche prudente de l’entreprise en matière d’Intelligence Artificielle Générale (IAG). Il a souligné les défis éthiques et la nécessité d’un développement responsable, en tenant compte de l’impact sur la société. Dean propose la mise en place d’un cadre international pour le développement et la mise en œuvre de l’IAG, afin de minimiser les risques et maximiser les avantages.

Jeff Dean over AGI: Ethiek en Verantwoordelijkheid in Silicon Valley

Jeff Dean over AGI: Ethiek en Verantwoordelijkheid in Silicon Valley

2025-09-11 journalistiek

parijs, donderdag, 11 september 2025.
Tijdens een conferentie in Parijs besprak Jeff Dean, leider van Google AI, de voorzichtige aanpak van het bedrijf ten aanzien van Artificial General Intelligence (AGI). Hij benadrukte de ethische uitdagingen en de noodzaak voor verantwoordelijke ontwikkeling, met inachtneming van de impact op de samenleving. Dean stelt voor dat er een internationaal kader wordt opgezet voor de ontwikkeling en implementatie van AGI, om de risico’s te minimaliseren en de voordelen te maximaliseren.

LIO Discusses Impact of AI in Internal Audit

LIO Discusses Impact of AI in Internal Audit

2025-08-30 journalistiek

amsterdam, zaterdag, 30 augustus 2025.
During a recent meeting of the National Internal Research Association (LIO), the opportunities, risks, and ethical aspects of artificial intelligence (AI) in internal audit were discussed. More than 100 participants from various sectors came together to learn how AI is changing the work environment of auditors and what skills are needed. Experts delved into topics such as algorithmic bias, digital resilience, and the integration of AI into compliance and risk management.

LIO Discute l'Impact de l'IA dans le Contrôle Interne

LIO Discute l'Impact de l'IA dans le Contrôle Interne

2025-08-30 journalistiek

amsterdam, zaterdag, 30 augustus 2025.
Lors d’une récente réunion de la Landelijke Interne Onderzoeksvereniging (LIO), les opportunités, les risques et les aspects éthiques de l’intelligence artificielle (IA) dans le contrôle interne ont été abordés. Plus de 100 participants issus de différents secteurs se sont réunis pour apprendre comment l’IA transforme le domaine des auditeurs et quelles compétences sont nécessaires. Les experts ont traité des sujets tels que le biais algorithmique, la résilience numérique et l’intégration de l’IA dans la conformité et la gestion des risques.

LIO Bespreekt Impact van AI in Internal Audit

LIO Bespreekt Impact van AI in Internal Audit

2025-08-30 journalistiek

amsterdam, zaterdag, 30 augustus 2025.
Tijdens een recente bijeenkomst van de Landelijke Interne Onderzoeksvereniging (LIO) werden de kansen, risico’s en ethische aspecten van kunstmatige intelligentie (AI) in internal audit besproken. Meer dan 100 deelnemers uit verschillende sectoren kwamen samen om te leren hoe AI het werkveld van auditors verandert en welke vaardigheden hierbij nodig zijn. Experten gingen in op onderwerpen zoals algoritmische bias, digitale weerbaarheid en de integratie van AI in compliance en risicobeheer.

Ethics in AI: Balancing Technology and Justice

Ethics in AI: Balancing Technology and Justice

2025-08-21 journalistiek

brussel, donderdag, 21 augustus 2025.
The use of AI in military contexts raises ethical questions. Israeli AI systems such as Lavender select targets with unprecedented speed, but decision-making is increasingly determined by technical capabilities rather than justice. Experts advocate for a balance where technology serves to promote peace and justice, not undermine them.