OpenAI introduceert Trusted Contact-functie voor ChatGPT bij risico op zelfbeschadiging
In dit artikel:
OpenAI heeft recent een nieuwe beveiligingsoptie voor ChatGPT geïntroduceerd: Trusted Contact. Gebruikers van 18 jaar en ouder kunnen in de instellingen één volwassene aanwijzen die gewaarschuwd kan worden wanneer het systeem ernstige signalen van zelfbeschadiging of suïcidale gedachten signaleert. De maatregel komt omdat steeds meer mensen ChatGPT gebruiken als een vorm van digitale therapie; OpenAI zegt dat meer dan een miljoen van de ongeveer 800 miljoen wekelijkse gebruikers suïcidale gedachten bespreekt met de chatbot.
Meldingen worden niet automatisch door de AI verzonden: een speciaal getraind veiligheidsteam beoordeelt handmatig of er daadwerkelijk sprake is van ernstig gevaar en kan daarna de aangewezen vertrouwenspersoon informeren dat er gesprekken zijn gedetecteerd waarin zelfbeschadiging of suïcide aan de orde kwamen. OpenAI benadrukt dat de privacy van gebruikers gewaarborgd blijft en streeft ernaar deze beoordelingen binnen ongeveer één uur af te ronden.
De introductie van Trusted Contact illustreert zowel de groeiende rol van chatbots bij emotionele ondersteuning als de gevoeligheid van dat gebruik: de stap volgt op eerdere controverse, meldingen en rechtszaken over AI-adviezen rond mentale gezondheid. Als aanvullende context: dergelijke functies zijn bedoeld als back-upmaatregel en vervangen professionele hulpverleners niet; bij acuut gevaar blijft het belangrijk direct contact te zoeken met hulpdiensten of een hulpverlener.