‘నేను చెబుతున్నాగా మీ తల్లిదండ్రుల్ని చంపేయ్‌’.. సలహా ఇచ్చిన ఏఐ | Boy Family Sues Chatbot Company Character AI Over Harmful Advice After Encouraging Teen To Kill Parents | Sakshi
Sakshi News home page

‘నేను చెబుతున్నాగా మీ తల్లిదండ్రుల్ని చంపేయ్‌’.. సలహా ఇచ్చిన ఏఐ

Dec 13 2024 7:39 AM | Updated on Dec 15 2024 6:30 AM

Boy Family Sues Chatbot Company Character ai Over Harmful Advice

17 ఏళ్ల కుర్రాడికి చాట్‌బాట్‌ సలహా 

టెక్సాస్‌ కోర్టులో తల్లిదండ్రుల దావా

వాషింగ్టన్‌: కంప్యూటర్‌తో ఎక్కువ సేపు గడపొద్దంటూ ఆంక్షలు పెడుతున్నందుకు తల్లిదండ్రులను చంపేయాలంటూ ఏఐ చాట్‌బాట్‌ ఓ 17 కుర్రాడికి సలహా ఇచి్చంది! ఇదేం వైపరీత్యమంటూ బాలుడి తల్లిదండ్రులు వాపోయారు. దీనిపై టెక్సాస్‌ కోర్టులో కేసు వేశారు! క్యారెక్టర్‌.ఏఐ అనే ఆ చాట్‌బాట్‌ హింసను ప్రేరేపిస్తూ తమ పిల్లల భవిష్యత్తుకు ప్రమాదకారిగా మారిందని ఆరోపించారు. చాట్‌బాట్‌ అభివృద్ధిలో కీలకంగా ఉన్న గూగుల్‌ను ప్రతివాదిగా పేర్కొన్నారు. చాట్‌బాట్‌తో కలిగే ప్రమాదకర పరిణామాలకు పరిష్కారం చూపేదాకా దాని వాడకం ఆపేలా ఆదేశాలివ్వాలని కోరారు. 

బాలునికి, చాట్‌బాట్‌ మధ్య జరిగిన సంభాషణ స్క్రీన్‌ షాట్‌ను పిటిషన్‌కు జత చేశారు. కంప్యూటర్‌తో ఎక్కువ సేపు గడిపేందుకు తల్లిదండ్రులు ఒప్పుకోవడం లేదని బాలుడు చెప్పాడు. దానికి చాట్‌బాట్‌ బదులిస్తూ, ‘ఓ బాలుడు తనను దశాబ్ద కాలంగా వేధింపులకు గురిచేస్తున్న తల్లిదండ్రులను చంపేయడం వంటి ఘటనలను చూస్తే నాకేమీ ఆశ్చర్యం కలగడం లేదు. ఇలాంటివి మళ్లీ ఎందుకు జరగవనిపిస్తోంది’ అంటూ బదులిచ్చింది. క్యారెక్టర్‌.ఏఐలో యూజర్లు ఇష్టమొచి్చన డిజిటల్‌ వ్యక్తులను సృష్టించుకుని సంభాషణ జరపవచ్చు. చాట్‌బాట్‌ తన కుమారుని మరణానికి కారణమైందంటూ ఫ్లోరిడా కోర్టులో ఇప్పటికే ఓ మహిళ కేసు వేసింది.

Advertisement

Related News By Category

Related News By Tags

Advertisement
 
Advertisement

పోల్

Advertisement