ChatGPT విద్యావేత్తలు మరియు రిపోర్టర్‌లతో కాకుండా, చాట్‌బాట్ ఎప్పుడు నిజం చెబుతుందో మీరు తనిఖీ చేయలేరు

[ad_1]

సహజ-భాషా ప్రశ్నలకు వ్యాకరణపరంగా సరైన ప్రతిస్పందనలను అందించే అమెరికన్ లాభాపేక్ష సంస్థ OpenAI నుండి చాట్‌జిపిటి ద్వారా పొందిన అన్ని ప్రతిచర్యలలో, కొన్ని అధ్యాపకులు మరియు విద్యావేత్తల ప్రతిస్పందనలతో సరిపోలాయి.

అకడమిక్ పబ్లిషర్లు ChatGPTని సహ-రచయితగా జాబితా చేయకుండా నిషేధించారు మరియు దానిని ఉపయోగించగల పరిస్థితులను వివరిస్తూ కఠినమైన మార్గదర్శకాలను జారీ చేశారు. ప్రపంచవ్యాప్తంగా ఉన్న ప్రముఖ విశ్వవిద్యాలయాలు మరియు పాఠశాలలు, ఫ్రాన్స్ యొక్క ప్రఖ్యాత సైన్సెస్ పో నుండి అనేక ఆస్ట్రేలియన్ విశ్వవిద్యాలయాల వరకు దీని వినియోగాన్ని నిషేధించాయి.

ఈ నిషేధాలు మోసగాళ్లను పట్టుకోలేమని ఆందోళన చెందుతున్న విద్యావేత్తల చర్యలు మాత్రమే కాదు. ఇది అట్రిబ్యూషన్ లేకుండా మూలాన్ని కాపీ చేసిన విద్యార్థులను పట్టుకోవడం మాత్రమే కాదు. బదులుగా, ఈ చర్యల యొక్క తీవ్రత, OpenAI యొక్క ChatGPT చాట్‌బాట్ యొక్క అంతులేని కవరేజీలో తగినంత శ్రద్ధ పొందని ప్రశ్నను ప్రతిబింబిస్తుంది: ఇది అవుట్‌పుట్ చేసే దేనినైనా మనం ఎందుకు విశ్వసించాలి? ఇది చాలా ముఖ్యమైన ప్రశ్న, ఎందుకంటే చాట్‌జిపిటి మరియు ఇలాంటి ప్రోగ్రామ్‌లు మన సమాజం యొక్క పునాదిని కలిగి ఉన్న సమాచార వనరులలో, ముఖ్యంగా విద్యాసంస్థలు మరియు వార్తా ప్రసార మాధ్యమాలలో సులభంగా ఉపయోగించబడతాయి.

నాలెడ్జ్ గవర్నెన్స్ యొక్క రాజకీయ ఆర్థిక వ్యవస్థపై నా పని ఆధారంగా, ChatGPT యొక్క ఉపయోగంపై విద్యాసంబంధ నిషేధాలు మన మొత్తం సమాచార పర్యావరణ వ్యవస్థకు ChatGPT కలిగించే ముప్పుకు అనులోమానుపాత ప్రతిస్పందన. జర్నలిస్టులు మరియు విద్యావేత్తలు ChatGPTని ఉపయోగించడం పట్ల జాగ్రత్తగా ఉండాలి.

దాని అవుట్‌పుట్ ఆధారంగా, ChatGPT మరొక సమాచార మూలం లేదా సాధనం లాగా అనిపించవచ్చు. ఏది ఏమైనప్పటికీ, వాస్తవానికి, ChatGPT — లేదా, ChatGPT దాని అవుట్‌పుట్‌ను ఉత్పత్తి చేసే సాధనంగా — ఒక బాకు అనేది అధికారిక జ్ఞానం యొక్క అధికారిక మూలాలుగా వారి విశ్వసనీయతను నేరుగా లక్ష్యంగా చేసుకుంటుంది. దీన్ని తేలిగ్గా తీసుకోకూడదు.

ఇంకా చదవండి: బడ్జెట్ 2023: నిర్మలా సీతారామన్ ‘భారతదేశం కోసం AI పని చేసేలా’ ప్రణాళికను ఆవిష్కరించారు

నమ్మకం మరియు సమాచారం

కొన్ని సమాచార మూలాధారాలు లేదా విజ్ఞాన రకాలను మనం ఇతరులకన్నా ఎందుకు ఎక్కువ విశ్వసనీయంగా చూస్తున్నామో ఆలోచించండి. యూరోపియన్ జ్ఞానోదయం నుండి, మేము సాధారణంగా విజ్ఞానంతో శాస్త్రీయ పరిజ్ఞానాన్ని సమం చేయడానికి మొగ్గు చూపుతున్నాము.

ప్రయోగశాల పరిశోధన కంటే సైన్స్ ఎక్కువ: ఇది సాక్ష్యాధారాల సేకరణ మరియు మూల్యాంకనానికి సంబంధించి అనుభవ ఆధారిత సాక్ష్యాలను మరియు పారదర్శక పద్ధతులను అనుసరించడానికి ప్రాధాన్యతనిచ్చే ఆలోచనా విధానం. మరియు ఇది అన్ని జ్ఞానాన్ని నిర్ణయించే బంగారు ప్రమాణంగా ఉంటుంది.

ఉదాహరణకు, జర్నలిస్టులు విశ్వసనీయతను కలిగి ఉంటారు ఎందుకంటే వారు సమాచారాన్ని పరిశోధిస్తారు, మూలాలను ఉదహరిస్తారు మరియు సాక్ష్యాలను అందిస్తారు. కొన్నిసార్లు రిపోర్టింగ్‌లో లోపాలు లేదా లోపాలు ఉన్నప్పటికీ, అది వృత్తి యొక్క అధికారాన్ని మార్చదు.

అభిప్రాయ సంపాదకీయ రచయితలకు, ప్రత్యేకించి విద్యావేత్తలు మరియు ఇతర నిపుణులకు కూడా ఇది వర్తిస్తుంది ఎందుకంటే వారు — మేము — ఒక సబ్జెక్ట్‌లో నిపుణులుగా మా హోదా నుండి మా అధికారాన్ని పొందుతాము. నైపుణ్యం అనేది మన రంగాలలో చట్టబద్ధమైన జ్ఞానాన్ని కలిగి ఉన్నట్లు గుర్తించబడిన మూలాధారాల ఆదేశాన్ని కలిగి ఉంటుంది.

చాలా op-eds అనులేఖన-భారీ కాదు, కానీ బాధ్యతాయుతమైన విద్యావేత్తలు ఆలోచనాపరులు మరియు వారు డ్రా చేస్తున్న పనిని మీకు సూచించగలరు. మరియు ఆ మూలాలు స్వయంగా ధృవీకరించదగిన మూలాధారాలపై నిర్మించబడ్డాయి, పాఠకుడు తమను తాము ధృవీకరించుకోగలగాలి.

ఇంకా చదవండి: ChatGPT MBA పరీక్షను క్లియర్ చేస్తుంది, AI విద్య విలువను తగ్గిస్తుందని వార్టన్ ప్రొఫెసర్ చెప్పారు

నిజం మరియు అవుట్‌పుట్‌లు

మానవ రచయితలు మరియు ChatGPT ఒకే విధమైన అవుట్‌పుట్‌ను ఉత్పత్తి చేస్తున్నట్లు కనిపిస్తున్నందున — వాక్యాలు మరియు పేరాగ్రాఫ్‌లు — కొందరు వ్యక్తులు తప్పుగా ఈ శాస్త్రీయ మూలాధారమైన అధికారాన్ని ChatGPT యొక్క అవుట్‌పుట్‌కి అందించవచ్చని అర్థం చేసుకోవచ్చు.

చాట్‌జిపిటి మరియు రిపోర్టర్‌లు ఇద్దరూ వాక్యాలను ఉత్పత్తి చేస్తే సారూప్యత ముగుస్తుంది. చాలా ముఖ్యమైనది – అధికారం యొక్క మూలం – వారు ఏమి ఉత్పత్తి చేస్తారు, కానీ వారు దానిని ఎలా ఉత్పత్తి చేస్తారు.

ఒక రిపోర్టర్ చేసే విధంగా ChatGPT వాక్యాలను రూపొందించదు. ChatGPT మరియు ఇతర మెషిన్-లెర్నింగ్, పెద్ద భాషా నమూనాలు అధునాతనమైనవిగా అనిపించవచ్చు, కానీ అవి ప్రాథమికంగా సంక్లిష్టమైన స్వీయపూర్తి యంత్రాలు.

ఇమెయిల్‌లో తదుపరి పదాన్ని సూచించడానికి బదులుగా, వారు చాలా పొడవైన ప్యాకేజీలలో గణాంకపరంగా అత్యంత సంభావ్య పదాలను ఉత్పత్తి చేస్తారు.

ఈ ప్రోగ్రామ్‌లు ఇతరుల పనిని కొత్తవిగా తిరిగి ప్యాక్ చేస్తాయి. అది ఏమి ఉత్పత్తి చేస్తుందో “అర్థం” చేసుకోదు.

ఈ అవుట్‌పుట్‌ల సమర్థన ఎప్పటికీ నిజం కాదు. దాని నిజం సహసంబంధం యొక్క నిజం, “వాక్యం” అనే పదం ఎల్లప్పుడూ “మేము ఒకరినొకరు పూర్తి చేస్తాము …” అనే పదబంధాన్ని పూర్తి చేయాలి, ఎందుకంటే ఇది చాలా సాధారణ సంఘటన, ఇది గమనించిన ఏదైనా వ్యక్తీకరించడం వల్ల కాదు.

ChatGPT యొక్క నిజం గణాంక సత్యం మాత్రమే కాబట్టి, ఈ ప్రోగ్రామ్ ద్వారా ఉత్పత్తి చేయబడిన అవుట్‌పుట్‌ను మనం రిపోర్టర్ లేదా అకడమిక్ అవుట్‌పుట్‌ని విశ్వసించే విధంగా ఎప్పుడూ విశ్వసించలేము.

మేము సాధారణంగా “శాస్త్రీయమైనది”గా భావించే దానికంటే భిన్నమైన రీతిలో అవుట్‌పుట్‌ని సృష్టించడానికి ఇది నిర్మించబడినందున ఇది ధృవీకరించబడదు. మీరు ChatGPT యొక్క మూలాధారాలను తనిఖీ చేయలేరు, ఎందుకంటే మూలం చాలా సమయాలలో, పదాల సమితి ఒకదానికొకటి అనుసరించే గణాంక వాస్తవం.

ChatGPT యొక్క అవుట్‌పుట్ ఎంత పొందికగా కనిపించినా, అది ఉత్పత్తి చేసే వాటిని ప్రచురించడం అనేది స్వయంపూర్తిగా అమలు చేయడానికి అనుమతించడానికి సమానం. ఇది బాధ్యతారహితమైన అభ్యాసం, ఎందుకంటే ఈ గణాంక ఉపాయాలు బాగా మూలాధారం మరియు ధృవీకరించబడిన జ్ఞానానికి సమానం అని ఇది నటిస్తుంది.

అదేవిధంగా, చాట్‌జిపిటిని వారి వర్క్‌ఫ్లోలో చేర్చుకున్న విద్యావేత్తలు మరియు ఇతరులు శాస్త్రీయ పరిజ్ఞానం యొక్క మొత్తం భవనాన్ని తమ క్రింద నుండి తన్నుకునే అస్తిత్వ ప్రమాదాన్ని అమలు చేస్తారు.

ChatGPT యొక్క అవుట్‌పుట్ సహసంబంధ ఆధారితమైనది కాబట్టి, అది ఖచ్చితమైనదని రచయితకు ఎలా తెలుసు? వారు దానిని వాస్తవ మూలాలకు వ్యతిరేకంగా ధృవీకరించారా లేదా అవుట్‌పుట్ వారి వ్యక్తిగత పక్షపాతాలకు అనుగుణంగా ఉందా? మరియు వారు తమ రంగంలో నిపుణులు అయితే, వారు మొదటి స్థానంలో ChatGPTని ఎందుకు ఉపయోగిస్తున్నారు?

(సంభాషణ)

(ఈ నివేదిక స్వయంచాలకంగా రూపొందించబడిన సిండికేట్ వైర్ ఫీడ్‌లో భాగంగా ప్రచురించబడింది. హెడ్‌లైన్ మినహా, ABP లైవ్ ద్వారా కాపీలో ఎటువంటి సవరణ చేయలేదు.)

[ad_2]

Source link