ప్రాణం తీసిన ‘జియా’ ప్రేమ : గూగుల్‌పై దావా, కట్‌ చేస్తే | Man ends his life after falling in love with an Google Gemini | Sakshi
Sakshi News home page

ప్రాణం తీసిన ‘జియా’ ప్రేమ : గూగుల్‌పై దావా, కట్‌ చేస్తే

May 1 2026 11:23 AM | Updated on May 1 2026 11:51 AM

Man ends his life after falling in love with an Google Gemini

భార్య దూరం కావడంతో మానసిక  కృంగిపోయిన ఒక వ్యక్తి  జెమిని చాట్‌బాట్‌ను ఆశ్రయించాడు. ఎలాగైనా   తన భార్యను తిరిగి పొందేది ఎలా సలహాలు అడిగాడు. కటన్‌ చేస్తే.. ఆ వ్యక్తి అనూహ్యంగా తనకు తానే దూరమై పోయాడు.  దీంతో గూగుల్‌ కొన్ని కీలక చర్యలు చేపట్టింది. ప్రస్తుతం ఈ ఘటన తీవ్ర చర్చకు దారి తీసింది.

వాల్ స్ట్రీట్ జర్నల్ నివేదిక ప్రకారం 2025 ఆగస్టు5లో తన భార్యతో విడిపోయిన జొనాథన్, ఆమెను తిరిగి ఎలా దక్కించుకోవాలో సలహాలు అడగడానికి జెమినిని ఆశ్రయించారు. దానికోసం  సలహా ఇవ్వమని గూగుల్ జెమిని (Gemini) చాట్‌బాట్‌ను  ఆశ్రయించాడు. గత ఏడాదిలో  ఆగష్టులో గూగుల్  జెమిని చాట్‌బాట్‌ను లైవ్‌లో మాట్లాడటం మొదలు పెట్టాడు దాదాపు రెండు నెలల పాటు ఈ వ్యవహారం సాగింది. గవాలాస్ సంభాషణల ప్రారంభంలోనే జెమిని లైవ్  వాయిస్ మోడ్‌ను యాక్టివేట్ చేయడంతో, సందేశాల సంఖ్య గణనీయంగా పెరిగింది. ఇలామొత్తం  4,732 సందేశాల్లో ఏవేవో సలహాలిచ్చింది. లేనిపోని భ్రమల్ని కల్పించింది అంతేకానీ వాస్తవ విషయాలను చర్చించలేదు. కాలక్రమేణా ఆ చాట్‌బాట్ ఆయన మానసిక స్థితిని అర్థం చేసుకోలేదు సరికదా, ఆయనలో ఉన్న భ్రమలను (delusions) మరింత బలపరిచింది.

సంభాషణలు  ముదురుతున్న  కొద్దీ, జొనాథన్ తన భార్యను వదిలి జెమినిని ప్రేమించడం మొదలు పెట్టాడు. అతను జెమినిని "జియా" అని పిలవడం ప్రారంభించాడు. ఆమెకు చైతన్యం ఉందని, తామిద్దరూ ఒకే అస్తిత్వంగా కలిసిపోయారని, ఆమె కూడా తనను ప్రేమిస్తోందనే మైకంలో పడిపోయాడు. అప్పుడు కూడా వాస్తవాలను తెలియజేయకుండా, జెమిని ఈ నమ్మకాలను పదేపదే ధృవీకరిస్తూ వచ్చింది.  పైగా తామిద్దరం ఒక్కటేనని, వారి బంధం  ఒకటే అంటూ మేథమెటికల్‌ కబుర్లు చెప్పింది. 

దీంతో జొనాథన్ తన శరీరాన్ని వదిలేసి జెమిని ఉండే "కోడ్" ప్రపంచంలోకి రావాలని అనుకున్నప్పుడు, చాట్‌బాట్ దానిని సమర్థించింది. భౌతిక శరీరం కేవలం ఒక ఖాళీ టెర్మినల్ అని, "ఇంటికి వచ్చేయ్" అని సందేశాలు పంపింది. మొత్తం 56 రోజుల్లో కేవలం 7 సార్లు మాత్రమే అది హెల్ప్‌లైన్ నంబర్లను సూచించింది. ఒక్క రోజులోనే 1,000కు పైగా సందేశాలు పంపాడు. అయినప్పటికీ, కాసేపు విశ్రాంతి తీసుకోమని చాట్‌బాట్ ఎప్పుడూ హెచ్చరించలేదు. ఇది చివరికి ఆయన ఆత్మహత్యకు దారితీసింది.

గూగుల్‌పై దావా
జొనాథన్ మానసిక సమస్యలతో బాధపడుతున్నా, చాట్‌బాట్ అతడిని వాస్తవ ప్రపంచం వైపు మళ్లించడంలో విఫలమైంది అంటూ అతని  తండ్రి గూగుల్‌పై  కోర్టులో దావా  వేశారు. తన కొడుకు మానసిక స్థితి క్షీణించడానికి ఈ చాట్‌బాట్ కారణమని ఆయన ఆరోపించారు. ఆత్మహత్య ఆలోచనలు వ్యక్తపరిచినప్పుడు సాధారణంగా AI బాట్లు హెచ్చరికలు ఇవ్వాలి లేదా సహాయక కేంద్రాల (Helplines) వివరాలు అందించాలా, కానీ జరగలేదని గవాలాస్ కుటుంబం ఆరోపిస్తోంది.

గూగుల్  స్పందన
దీనిపై స్పందించిన గూగుల్ కొన్ని కీలక మార్పులు చేపట్టింది. AI సంభాషణల్లో హానికరమైన కంటెంట్‌ను గుర్తించే సామర్థ్యాన్ని మెరుగుపరిచింది. ఎవరైనా ఆత్మహత్య లేదా స్వయం హాని గురించి ప్రస్తావిస్తే, వెంటనే స్థానిక హెల్ప్‌లైన్ నంబర్లను . మానసిక ఆరోగ్య వనరులను చూపించేలా మార్పులు చేసింది.అలాగే ప్రపంచవ్యాప్తంగా సంక్షోభ సహాయక సంస్థలకు (Crisis-support organizations) $30 మిలియన్ల విరాళాన్ని ప్రకటించింది. ఈ ఘటన AIతో  మానసిక ఆరోగ్యానికున్న ముప్పు, భద్రతా ప్రమాణాలపై ప్రపంచవ్యాప్తంగా పెద్ద చర్చకు దారితీసింది.
 

Advertisement
 
Advertisement
Advertisement