Cognition refers to intelligent behaviour, the essential characteristic of living beings. In humans, this behaviour is based on key cognitive capacities such as perception, action, emotion, language, learning, memory, reasoning and consciousness.

Cognitive robotics is about developing intelligence in robots. The Cognitive Robotics research group at TU Delft focuses primarily on how robots can best plan and carry out their subsequent actions, so three cognitive aspects come into play: perception, thinking and acting.

The Department of Cognitive Robotics brings together Delft robotics research, which used to be divided into two separate departments: Systems and Control and Biomechanical Engineering. Our research focuses on:

  • Learning and autonomous control
  • Robot dynamics
  • Human-robot interaction
  • Intelligent vehicles
     

The fundamental work of the Department of Cognitive Robotics is used in various Delft field labs, where practical robot applications are being developed and tested on a small scale (RoboHouse, SAM|XL and AIRLab Delft). From these field labs, the work eventually finds its way into practical applications in numerous industries, agriculture and horticulture, and retail.

Cooperation / partners

News

Bestuurders van zelfrijdende auto’s krijgen de schuld van ongevallen die zij redelijkerwijs niet kunnen vermijden

De menselijke bestuurder wordt gezien als eerste verantwoordelijke wanneer zijn of haar (gedeeltelijk) geautomatiseerde auto verongelukt. Maar is dat wel redelijk? Wetenschappers van het AiTech Institute van TU Delft onderzochten de wanverhouding tussen de schuldvraag van het publiek en de bevindingen uit de literatuur over het vermogen van mensen om waakzaam te blijven tijdens geautomatiseerd rijden. Hun bevindingen zijn onlangs gepubliceerd in Nature Scientific Reports . Bij het experiment dat ze deden, bleek dat deelnemers vooral de bestuurder de schuld van ongevallen gaven, ook al erkenden ze het verminderde vermogen van de bestuurder om ze te vermijden. Het experiment brengt een kloof aan het licht tussen verwijtbaarheid en verantwoordelijkheid. In deze “aansprakelijkheidskloof” is de verantwoordelijkheid niet redelijk verdeeld. De bestuurder krijgt de meeste schuld, maar mist soms het vermogen om het resultaat te veranderen. Het publiek verwacht dat bestuurders waakzaam blijven en te allen tijde toezicht houden op het geautomatiseerde voertuig, maar we weten dat dit een onredelijke eis is voor een menselijke bestuurder; zelfs hoogopgeleide piloten hebben moeite met het langdurig toezicht houden op automatische pilootsystemen. Bestuurders zijn zich niet bewust van wat er in hun omgeving gebeurt, en ze kunnen niet zo snel reageren als het systeem vereist. De bevindingen van dit paper kunnen gevolgen hebben voor de toekomst van zelfrijdende auto’s. Op basis van de argumenten van de deelnemers, lijkt het erop dat de meerderheid van hen geen rekening houdt met het eerder genoemde verminderde vermogen van de bestuurder bij geautomatiseerd rijden. Dit zou erop kunnen wijzen dat mensen zich niet bewust zijn van sommige effecten van automatisering, wat zou kunnen leiden tot "ongewilde omissies". Bestuurders zijn zich op hun beurt niet bewust ervan dat geautomatiseerd rijden gevolgen heeft voor hun vermogen om vereiste rij-taken uit te voeren, maar worden toch verantwoordelijk beschouwd. Het AiTech Institute gaat uit van het concept van ‘meaningful human control over AI systems’, met andere woorden: mensen en niet computers of algoritmen moeten moreel verantwoordelijk blijven voor beslissingen. De onderzoekers betogen in dit geval dat de verantwoordelijkheid die aan een bestuurder wordt toegekend, wel in overeenstemming moet zijn met zijn vermogen om het geautomatiseerde voertuig te besturen. Als dat vermogen wordt aangetast door het gebruik van de automatisering, moet de verantwoordelijkheid verschuiven van de bestuurder naar de automatisering (of de fabrikant ervan), wat de vraag doet rijzen of de beoordelingen van onze deelnemers redelijk zijn. Een oplossing voor het probleem zou het verstrekken van meer publieke informatie kunnen zijn, over de uitdagingen in verband met geautomatiseerd rijden, of bijvoorbeeld een opleiding voor bestuurders van geautomatiseerde auto’s. MEER INFORMATIE Klik hier om de volledige paper te lezen, geschreven door Niek Beckers, Luciano Cavalcante Siebert, Merijn Bruijnes, Catholijn Jonker en David Abbink.

David Abbink in diverse media

De Ingenieur: Cobots: een robot als collega (Dutch) / September 2022 issue (Dutch) Nieuwsbreak: David Abbink wil robots gaan maken waar de mens wél blij van wordt (Dutch) NRC: Met zijn allen een góéde robot maken; TechniekRobots waar je blij van wordt (Dutch) FMT Gezondheidszorg: Zijn robots in de ouderenzorg realistisch? (Dutch) NRC: David Abbink wil robots gaan maken waar de mens wél blij van wordt (Dutch) ICT&Health: Inzet zorgrobots steeds realistischer (Dutch) Nationale Onderwijsgids: Inzet van zorgrobot wel steeds realistischer (Dutch) NOS: Robot voorkomt straks dat ouderen medicijnen vergeten, voorziet Helder (Dutch) Vrij Nederland: Robots zouden werk leuker moeten maken, niet makkelijker (Dutch) Medical Facts: Zorgrobots lijken niet op mensen (Dutch) NOS: Robots oplossing voor personeelstekorten in de zorg? 'Idee wordt overschat' (Dutch) Nieuwsuur: Zorgrobots de toekomst? (Dutch) Bits&Chips: TU Delft develops proactive eco mode with Renault (English) Klimaatweek: TU Delft ontwikkelt een auto die vooruit kan kijken met slimme eco-modus (Dutch) Eindhovens Dagblad: Zuinig rijdende auto’s worden sneller door Nederlandse vinding (Dutch) Autoweek: TU Delft werkt met Renault aan 'slimme eco-modus' (Dutch) De Ingenieur: Rijden in eco-modus: nu met snelle acceleratie (Dutch) Verkeerskunde: Delftse robotingenieurs ontwikkelen auto die ‘vooruit kan kijken’ (Dutch) Tweakers: TU Delft ontwikkelt eco-modus waarmee auto soms meer vermogen kan leveren (Dutch) MSN: TU Delft werkt met Renault aan 'slimme eco-modus' (Dutch) India Education Diary: TU Delft: TU Delft develops a car that can ‘look into the future’ with smart eco mode (English)
/* */