[ad_1]
సహజ-భాషా ప్రశ్నలకు వ్యాకరణపరంగా సరైన ప్రతిస్పందనలను అందించే అమెరికన్ లాభాపేక్ష సంస్థ OpenAI నుండి చాట్జిపిటి ద్వారా పొందిన అన్ని ప్రతిచర్యలలో, కొన్ని అధ్యాపకులు మరియు విద్యావేత్తల ప్రతిస్పందనలతో సరిపోలాయి.
అకడమిక్ పబ్లిషర్లు ChatGPTని సహ-రచయితగా జాబితా చేయకుండా నిషేధించారు మరియు దానిని ఉపయోగించగల పరిస్థితులను వివరిస్తూ కఠినమైన మార్గదర్శకాలను జారీ చేశారు. ప్రపంచవ్యాప్తంగా ఉన్న ప్రముఖ విశ్వవిద్యాలయాలు మరియు పాఠశాలలు, ఫ్రాన్స్ యొక్క ప్రఖ్యాత సైన్సెస్ పో నుండి అనేక ఆస్ట్రేలియన్ విశ్వవిద్యాలయాల వరకు దీని వినియోగాన్ని నిషేధించాయి.
ఈ నిషేధాలు మోసగాళ్లను పట్టుకోలేమని ఆందోళన చెందుతున్న విద్యావేత్తల చర్యలు మాత్రమే కాదు. ఇది అట్రిబ్యూషన్ లేకుండా మూలాన్ని కాపీ చేసిన విద్యార్థులను పట్టుకోవడం మాత్రమే కాదు. బదులుగా, ఈ చర్యల యొక్క తీవ్రత, OpenAI యొక్క ChatGPT చాట్బాట్ యొక్క అంతులేని కవరేజీలో తగినంత శ్రద్ధ పొందని ప్రశ్నను ప్రతిబింబిస్తుంది: ఇది అవుట్పుట్ చేసే దేనినైనా మనం ఎందుకు విశ్వసించాలి? ఇది చాలా ముఖ్యమైన ప్రశ్న, ఎందుకంటే చాట్జిపిటి మరియు ఇలాంటి ప్రోగ్రామ్లు మన సమాజం యొక్క పునాదిని కలిగి ఉన్న సమాచార వనరులలో, ముఖ్యంగా విద్యాసంస్థలు మరియు వార్తా ప్రసార మాధ్యమాలలో సులభంగా ఉపయోగించబడతాయి.
నాలెడ్జ్ గవర్నెన్స్ యొక్క రాజకీయ ఆర్థిక వ్యవస్థపై నా పని ఆధారంగా, ChatGPT యొక్క ఉపయోగంపై విద్యాసంబంధ నిషేధాలు మన మొత్తం సమాచార పర్యావరణ వ్యవస్థకు ChatGPT కలిగించే ముప్పుకు అనులోమానుపాత ప్రతిస్పందన. జర్నలిస్టులు మరియు విద్యావేత్తలు ChatGPTని ఉపయోగించడం పట్ల జాగ్రత్తగా ఉండాలి.
దాని అవుట్పుట్ ఆధారంగా, ChatGPT మరొక సమాచార మూలం లేదా సాధనం లాగా అనిపించవచ్చు. ఏది ఏమైనప్పటికీ, వాస్తవానికి, ChatGPT — లేదా, ChatGPT దాని అవుట్పుట్ను ఉత్పత్తి చేసే సాధనంగా — ఒక బాకు అనేది అధికారిక జ్ఞానం యొక్క అధికారిక మూలాలుగా వారి విశ్వసనీయతను నేరుగా లక్ష్యంగా చేసుకుంటుంది. దీన్ని తేలిగ్గా తీసుకోకూడదు.
ఇంకా చదవండి: బడ్జెట్ 2023: నిర్మలా సీతారామన్ ‘భారతదేశం కోసం AI పని చేసేలా’ ప్రణాళికను ఆవిష్కరించారు
నమ్మకం మరియు సమాచారం
కొన్ని సమాచార మూలాధారాలు లేదా విజ్ఞాన రకాలను మనం ఇతరులకన్నా ఎందుకు ఎక్కువ విశ్వసనీయంగా చూస్తున్నామో ఆలోచించండి. యూరోపియన్ జ్ఞానోదయం నుండి, మేము సాధారణంగా విజ్ఞానంతో శాస్త్రీయ పరిజ్ఞానాన్ని సమం చేయడానికి మొగ్గు చూపుతున్నాము.
ప్రయోగశాల పరిశోధన కంటే సైన్స్ ఎక్కువ: ఇది సాక్ష్యాధారాల సేకరణ మరియు మూల్యాంకనానికి సంబంధించి అనుభవ ఆధారిత సాక్ష్యాలను మరియు పారదర్శక పద్ధతులను అనుసరించడానికి ప్రాధాన్యతనిచ్చే ఆలోచనా విధానం. మరియు ఇది అన్ని జ్ఞానాన్ని నిర్ణయించే బంగారు ప్రమాణంగా ఉంటుంది.
ఉదాహరణకు, జర్నలిస్టులు విశ్వసనీయతను కలిగి ఉంటారు ఎందుకంటే వారు సమాచారాన్ని పరిశోధిస్తారు, మూలాలను ఉదహరిస్తారు మరియు సాక్ష్యాలను అందిస్తారు. కొన్నిసార్లు రిపోర్టింగ్లో లోపాలు లేదా లోపాలు ఉన్నప్పటికీ, అది వృత్తి యొక్క అధికారాన్ని మార్చదు.
అభిప్రాయ సంపాదకీయ రచయితలకు, ప్రత్యేకించి విద్యావేత్తలు మరియు ఇతర నిపుణులకు కూడా ఇది వర్తిస్తుంది ఎందుకంటే వారు — మేము — ఒక సబ్జెక్ట్లో నిపుణులుగా మా హోదా నుండి మా అధికారాన్ని పొందుతాము. నైపుణ్యం అనేది మన రంగాలలో చట్టబద్ధమైన జ్ఞానాన్ని కలిగి ఉన్నట్లు గుర్తించబడిన మూలాధారాల ఆదేశాన్ని కలిగి ఉంటుంది.
చాలా op-eds అనులేఖన-భారీ కాదు, కానీ బాధ్యతాయుతమైన విద్యావేత్తలు ఆలోచనాపరులు మరియు వారు డ్రా చేస్తున్న పనిని మీకు సూచించగలరు. మరియు ఆ మూలాలు స్వయంగా ధృవీకరించదగిన మూలాధారాలపై నిర్మించబడ్డాయి, పాఠకుడు తమను తాము ధృవీకరించుకోగలగాలి.
ఇంకా చదవండి: ChatGPT MBA పరీక్షను క్లియర్ చేస్తుంది, AI విద్య విలువను తగ్గిస్తుందని వార్టన్ ప్రొఫెసర్ చెప్పారు
నిజం మరియు అవుట్పుట్లు
మానవ రచయితలు మరియు ChatGPT ఒకే విధమైన అవుట్పుట్ను ఉత్పత్తి చేస్తున్నట్లు కనిపిస్తున్నందున — వాక్యాలు మరియు పేరాగ్రాఫ్లు — కొందరు వ్యక్తులు తప్పుగా ఈ శాస్త్రీయ మూలాధారమైన అధికారాన్ని ChatGPT యొక్క అవుట్పుట్కి అందించవచ్చని అర్థం చేసుకోవచ్చు.
చాట్జిపిటి మరియు రిపోర్టర్లు ఇద్దరూ వాక్యాలను ఉత్పత్తి చేస్తే సారూప్యత ముగుస్తుంది. చాలా ముఖ్యమైనది – అధికారం యొక్క మూలం – వారు ఏమి ఉత్పత్తి చేస్తారు, కానీ వారు దానిని ఎలా ఉత్పత్తి చేస్తారు.
ఒక రిపోర్టర్ చేసే విధంగా ChatGPT వాక్యాలను రూపొందించదు. ChatGPT మరియు ఇతర మెషిన్-లెర్నింగ్, పెద్ద భాషా నమూనాలు అధునాతనమైనవిగా అనిపించవచ్చు, కానీ అవి ప్రాథమికంగా సంక్లిష్టమైన స్వీయపూర్తి యంత్రాలు.
ఇమెయిల్లో తదుపరి పదాన్ని సూచించడానికి బదులుగా, వారు చాలా పొడవైన ప్యాకేజీలలో గణాంకపరంగా అత్యంత సంభావ్య పదాలను ఉత్పత్తి చేస్తారు.
ఈ ప్రోగ్రామ్లు ఇతరుల పనిని కొత్తవిగా తిరిగి ప్యాక్ చేస్తాయి. అది ఏమి ఉత్పత్తి చేస్తుందో “అర్థం” చేసుకోదు.
ఈ అవుట్పుట్ల సమర్థన ఎప్పటికీ నిజం కాదు. దాని నిజం సహసంబంధం యొక్క నిజం, “వాక్యం” అనే పదం ఎల్లప్పుడూ “మేము ఒకరినొకరు పూర్తి చేస్తాము …” అనే పదబంధాన్ని పూర్తి చేయాలి, ఎందుకంటే ఇది చాలా సాధారణ సంఘటన, ఇది గమనించిన ఏదైనా వ్యక్తీకరించడం వల్ల కాదు.
ChatGPT యొక్క నిజం గణాంక సత్యం మాత్రమే కాబట్టి, ఈ ప్రోగ్రామ్ ద్వారా ఉత్పత్తి చేయబడిన అవుట్పుట్ను మనం రిపోర్టర్ లేదా అకడమిక్ అవుట్పుట్ని విశ్వసించే విధంగా ఎప్పుడూ విశ్వసించలేము.
మేము సాధారణంగా “శాస్త్రీయమైనది”గా భావించే దానికంటే భిన్నమైన రీతిలో అవుట్పుట్ని సృష్టించడానికి ఇది నిర్మించబడినందున ఇది ధృవీకరించబడదు. మీరు ChatGPT యొక్క మూలాధారాలను తనిఖీ చేయలేరు, ఎందుకంటే మూలం చాలా సమయాలలో, పదాల సమితి ఒకదానికొకటి అనుసరించే గణాంక వాస్తవం.
ChatGPT యొక్క అవుట్పుట్ ఎంత పొందికగా కనిపించినా, అది ఉత్పత్తి చేసే వాటిని ప్రచురించడం అనేది స్వయంపూర్తిగా అమలు చేయడానికి అనుమతించడానికి సమానం. ఇది బాధ్యతారహితమైన అభ్యాసం, ఎందుకంటే ఈ గణాంక ఉపాయాలు బాగా మూలాధారం మరియు ధృవీకరించబడిన జ్ఞానానికి సమానం అని ఇది నటిస్తుంది.
అదేవిధంగా, చాట్జిపిటిని వారి వర్క్ఫ్లోలో చేర్చుకున్న విద్యావేత్తలు మరియు ఇతరులు శాస్త్రీయ పరిజ్ఞానం యొక్క మొత్తం భవనాన్ని తమ క్రింద నుండి తన్నుకునే అస్తిత్వ ప్రమాదాన్ని అమలు చేస్తారు.
ChatGPT యొక్క అవుట్పుట్ సహసంబంధ ఆధారితమైనది కాబట్టి, అది ఖచ్చితమైనదని రచయితకు ఎలా తెలుసు? వారు దానిని వాస్తవ మూలాలకు వ్యతిరేకంగా ధృవీకరించారా లేదా అవుట్పుట్ వారి వ్యక్తిగత పక్షపాతాలకు అనుగుణంగా ఉందా? మరియు వారు తమ రంగంలో నిపుణులు అయితే, వారు మొదటి స్థానంలో ChatGPTని ఎందుకు ఉపయోగిస్తున్నారు?
(సంభాషణ)
(ఈ నివేదిక స్వయంచాలకంగా రూపొందించబడిన సిండికేట్ వైర్ ఫీడ్లో భాగంగా ప్రచురించబడింది. హెడ్లైన్ మినహా, ABP లైవ్ ద్వారా కాపీలో ఎటువంటి సవరణ చేయలేదు.)
[ad_2]
Source link