AI నుండి ఆరోగ్య సలహాలు తీసుకుంటున్నారా? పరిశోధనలలో బయటపడిన షాకింగ్ నిజాలు తెలుసా?

posted on: Apr 21, 2026 2:58PM

AI..ప్రపంచం అంతా వాడుతున్న కృత్రిమ మేధస్సు ఇది. ప్రస్తుతం ప్రపంచ వ్యాప్తంగా ఈ కృత్రిమ మేధస్సు వాడకం చాలా పెరిగింది.  ఏ చిన్న సందేహం వచ్చినా ఏఐ ని వాడటం, దాన్ని సలహాలు, సూచలు అడగడం చేస్తున్నారు. ఇక చాలా మంది మరొక అడుగు ముందుకు వేసి జీవితానికి కీలకం అయిన ఉద్యోగాలు,  ఆరోగ్యం,  రిలేషన్షిప్స్ వంటి విషయాలలో సలహాలు కూడా ఈ కృత్రిమ మేధస్సును ప్రశ్నలు వేస్తున్నారు. అయితే ఇది మనిషి లాగా తప్పించుకుని పక్కకు వెళ్ళిపోయేది కాదు.. ఏ ప్రశ్న అడిగినా దానికి తగిన సమాధానం ఇస్తూ ఉంటుంది.  ఈ క్రమంలోనే చాలా మంది ఏఐ ను ఆరోగ్య సమస్యలకు సలహాలు తీసుకుని, స్వంత వైద్యం దిశగా వెళ్లడానికి ప్రయత్నిస్తున్నారు. తాజాగా ఒక బ్రిటీష్ వైద్య పత్రిక ఏఐ ను ఆరోగ్య సలహాలు అడగడం, ఆ సలహాలు పాటించడం వంటి విషయాల గురించి చాలా షాకింగ్ నిజాలు ప్రచురించింది. దీని గురించి పూర్తీగా తెలుసుకుంటే.. ఆరోగ్య సమస్యల కోసం ఏఐ ను సలహా అడగడం ఎంత పెద్ద తప్పూ  అర్థమవుతుంది.

ఆరోగ్య సమస్యలపై తప్పుడు సమాచారం..

ఆరోగ్య సంబంధిత ప్రశ్నలకు ఏఐ ఇచ్చే సమాధానాలలో సుమారు 50 శాతం తప్పుగా ఉంటాయి. ఏఐ చాట్‌బాట్‌లు అందించే సమాచారం చాలా తప్పుగా ఉండవచ్చని పరిశోధనలు చెబుతున్నాయి.

ఏఐ బలహీనత..

జెమిని, డీప్‌సీక్, మెటా ఏఐ, చాట్‌జీపీటీ , గ్రోక్ వంటి ఏఐ సాధనాలపై విస్తృతమైన పరిశోధనను ఒక శాస్త్రవేత్తల టీమ్ నిర్వహించిందట.  ఈ ఏఐ ప్లాట్పామ్ లలో  ఆరోగ్యానికి సంబంధించిన అనేక ప్రశ్నలు పరిశోధకులు అడిగారట. క్యాన్సర్ , వ్యాక్సిన్‌ల వంటి అంశాలపై ఏఐ ఇచ్చిన సమాధానాలు చాలా వరకు కచ్చితమైనవిగా ఉన్నాయి. అయితే మూల కణాలు , పోషణ వంటి అంశాలలో ఏఐ బలహీనంగా ఉన్నట్లు తేలిందట.

తప్పుడు సమాధానాలు..

ఏఐతో ఉన్న అతిపెద్ద సమస్య.. అది నిస్సంకోచంగా తప్పుడు సమాచారాన్ని అందిస్తుందట. ఇది తరచుగా ఎటువంటి హెచ్చరిక లేదా నిరాకరణను అందించదు. ఫలితంగా, వినియోగదారులు సరైన సమాచారం, తప్పు సమాచారాల  మధ్య తేడాను గుర్తించలేరు. ఏఐ చెప్పే తప్పు సమాధానాలనే నిజం అనుకుని చాలామంది పొరపాట్లు చేస్తారు. అసలు ఏఐ చెప్పే సమాధానాలు నమ్మేలా అనిపించవని,  సమస్యకు సంబంధం లేని సమాచారాన్ని ఇస్తుందని అంటున్నారు.

గమనిక..

పైన పేర్కొన్న విషయాలు సోషల్ మీడియాలో వచ్చిన సమాచారం ఆధారంగా రూపొందించినవి.

                            *రూపశ్రీ.

google-ad-img
    Related Sigment News
    • Loading...