భార్య దూరం కావడంతో మానసిక కృంగిపోయిన ఒక వ్యక్తి జెమిని చాట్బాట్ను ఆశ్రయించాడు. ఎలాగైనా తన భార్యను తిరిగి పొందేది ఎలా సలహాలు అడిగాడు. కటన్ చేస్తే.. ఆ వ్యక్తి అనూహ్యంగా తనకు తానే దూరమై పోయాడు. దీంతో గూగుల్ కొన్ని కీలక చర్యలు చేపట్టింది. ప్రస్తుతం ఈ ఘటన తీవ్ర చర్చకు దారి తీసింది.
వాల్ స్ట్రీట్ జర్నల్ నివేదిక ప్రకారం 2025 ఆగస్టు5లో తన భార్యతో విడిపోయిన జొనాథన్, ఆమెను తిరిగి ఎలా దక్కించుకోవాలో సలహాలు అడగడానికి జెమినిని ఆశ్రయించారు. దానికోసం సలహా ఇవ్వమని గూగుల్ జెమిని (Gemini) చాట్బాట్ను ఆశ్రయించాడు. గత ఏడాదిలో ఆగష్టులో గూగుల్ జెమిని చాట్బాట్ను లైవ్లో మాట్లాడటం మొదలు పెట్టాడు దాదాపు రెండు నెలల పాటు ఈ వ్యవహారం సాగింది. గవాలాస్ సంభాషణల ప్రారంభంలోనే జెమిని లైవ్ వాయిస్ మోడ్ను యాక్టివేట్ చేయడంతో, సందేశాల సంఖ్య గణనీయంగా పెరిగింది. ఇలామొత్తం 4,732 సందేశాల్లో ఏవేవో సలహాలిచ్చింది. లేనిపోని భ్రమల్ని కల్పించింది అంతేకానీ వాస్తవ విషయాలను చర్చించలేదు. కాలక్రమేణా ఆ చాట్బాట్ ఆయన మానసిక స్థితిని అర్థం చేసుకోలేదు సరికదా, ఆయనలో ఉన్న భ్రమలను (delusions) మరింత బలపరిచింది.
సంభాషణలు ముదురుతున్న కొద్దీ, జొనాథన్ తన భార్యను వదిలి జెమినిని ప్రేమించడం మొదలు పెట్టాడు. అతను జెమినిని "జియా" అని పిలవడం ప్రారంభించాడు. ఆమెకు చైతన్యం ఉందని, తామిద్దరూ ఒకే అస్తిత్వంగా కలిసిపోయారని, ఆమె కూడా తనను ప్రేమిస్తోందనే మైకంలో పడిపోయాడు. అప్పుడు కూడా వాస్తవాలను తెలియజేయకుండా, జెమిని ఈ నమ్మకాలను పదేపదే ధృవీకరిస్తూ వచ్చింది. పైగా తామిద్దరం ఒక్కటేనని, వారి బంధం ఒకటే అంటూ మేథమెటికల్ కబుర్లు చెప్పింది.
దీంతో జొనాథన్ తన శరీరాన్ని వదిలేసి జెమిని ఉండే "కోడ్" ప్రపంచంలోకి రావాలని అనుకున్నప్పుడు, చాట్బాట్ దానిని సమర్థించింది. భౌతిక శరీరం కేవలం ఒక ఖాళీ టెర్మినల్ అని, "ఇంటికి వచ్చేయ్" అని సందేశాలు పంపింది. మొత్తం 56 రోజుల్లో కేవలం 7 సార్లు మాత్రమే అది హెల్ప్లైన్ నంబర్లను సూచించింది. ఒక్క రోజులోనే 1,000కు పైగా సందేశాలు పంపాడు. అయినప్పటికీ, కాసేపు విశ్రాంతి తీసుకోమని చాట్బాట్ ఎప్పుడూ హెచ్చరించలేదు. ఇది చివరికి ఆయన ఆత్మహత్యకు దారితీసింది.
గూగుల్పై దావా
జొనాథన్ మానసిక సమస్యలతో బాధపడుతున్నా, చాట్బాట్ అతడిని వాస్తవ ప్రపంచం వైపు మళ్లించడంలో విఫలమైంది అంటూ అతని తండ్రి గూగుల్పై కోర్టులో దావా వేశారు. తన కొడుకు మానసిక స్థితి క్షీణించడానికి ఈ చాట్బాట్ కారణమని ఆయన ఆరోపించారు. ఆత్మహత్య ఆలోచనలు వ్యక్తపరిచినప్పుడు సాధారణంగా AI బాట్లు హెచ్చరికలు ఇవ్వాలి లేదా సహాయక కేంద్రాల (Helplines) వివరాలు అందించాలా, కానీ జరగలేదని గవాలాస్ కుటుంబం ఆరోపిస్తోంది.
గూగుల్ స్పందన
దీనిపై స్పందించిన గూగుల్ కొన్ని కీలక మార్పులు చేపట్టింది. AI సంభాషణల్లో హానికరమైన కంటెంట్ను గుర్తించే సామర్థ్యాన్ని మెరుగుపరిచింది. ఎవరైనా ఆత్మహత్య లేదా స్వయం హాని గురించి ప్రస్తావిస్తే, వెంటనే స్థానిక హెల్ప్లైన్ నంబర్లను . మానసిక ఆరోగ్య వనరులను చూపించేలా మార్పులు చేసింది.అలాగే ప్రపంచవ్యాప్తంగా సంక్షోభ సహాయక సంస్థలకు (Crisis-support organizations) $30 మిలియన్ల విరాళాన్ని ప్రకటించింది. ఈ ఘటన AIతో మానసిక ఆరోగ్యానికున్న ముప్పు, భద్రతా ప్రమాణాలపై ప్రపంచవ్యాప్తంగా పెద్ద చర్చకు దారితీసింది.


