
در حالی که برخی ادعا می کنند که متون تولیدشده توسط هوش مصنوعی ChatGPT می تواند بهره وری را افزایش دهد و در زمان صرفهجویی کند، برخی دیگر نگران تاثیر بر کیفیت نوشتار و اخلاق جایگزینی نویسندگان انسانی با هوش مصنوعی هستند. این تکنولوژی در حال حاضر وارد مقالات تحقیقاتی آکادمیک در سراسر جهان شدهاست زیرا یک فناوری در دسترس و مقرون به صرفه است. شناخت مشکلاتی که علیرغم مزایای محدود آن (که در واقع خطری برای یکپارچگی تحقیق و دقت علمی است) به وجود می آورد، بسیار مهم است.
ChatGPT چه تهدیداتی برای نگارش آکادمیک ایجاد می کند؟
اگرچه ChatGPT این پتانسیل را دارد که ابزاری مفید در تحقیق و آموزش باشد، اما مهم است که قبل از استفاده از آن، محدودیتهای احتمالی و مسائل اخلاقی را در نظر بگیرید. دقت و بی طرفی نتایج مطالعه ممکن است تحت تأثیر سوگیری قرار گیرد. بعلاوه، این احتمال وجود دارد که پیچیدگی و اصالت مطالب نوشتهشده توسط انسان را نداشتهباشد. که می تواند بر روی کیفیت خروجی های تولیدشده تأثیر بگذارد. تاریخ ها، عبارات، نقل قول ها و ایدههای اصلی تقریبا همیشه ساختهمیشوند. اغلب حقایق را اشتباه در نظر میگیرد. به عنوان مثال، ما چند مرجع در مورد مواد ترموالکتریک انعطاف پذیر درخواست کردیم، و خروجی در زیر آوردهشدهاست. با بررسی واقعیات، مشخص شد که هیچ یک از آن مراجع وجود ندارد و توسط افراد مذکور نوشته نشده است.
کارشناسان دانشگاه های معتبر، ناشران و سیاست گذاران دیدگاه های خود را ارائه می دهند. به دستآوردن درک درستی از احساس آنها در مورد استفاده از ChatGPT در نگارش آکادمیک
تکنیکهای سنتی ارزیابی دانشگاه تحت تأثیر افزایش استفاده از ابزارهای هوش مصنوعی قرار گرفتهاند و نگرانیهایی را در میان اساتید در مورد احتمال سرقت ادبی و تأثیرات بالقوهای که ممکن است بر استانداردهای یکپارچگی تحصیلی داشته باشد، ایجاد کرده است. برخی از مؤسسات آموزشی در کشورهای مختلف اقداماتی را برای منع کامل استفاده از ChatGPT انجام دادهاند. برخی دیگر رویکرد انتظار و دید را انتخاب کردهاند. معلمان تاکید کردهاند که استفاده از فناوریهای هوش مصنوعی نه تنها مانع از توانایی آنها در ارزیابی درک، یادگیری و تواناییهای تفکر انتقادی دانشآموزان میشود، بلکه امکان رشد در این زمینهها را نیز برای آنها باقی نمیگذارد.
از آنجایی که آنها نگران هستند که دانشجویان بیش از حد به آنها وابسته شوند و روند یادگیری را مختل کنند، چند دانشگاه تصمیم گرفتهاند که ممنوعیت کامل ChatGPT و قوانین شدید تنها گزینههای قابل اجرا هستند. آنا میلز، استاد نویسندگی در یک کالج محلی در منطقه خلیج، نگرانی های خود را در مورد دلایلی که دانشجویان وسوسه می شوند تا از هوش مصنوعی برای نوشتن مقالات خود استفاده کنند، ابراز کرد. ” تکیه کردن به آن به عنوان یک کمک کننده، فکرنکردن و مراحل دشوار نوشتن بسیار وسوسهانگیز است. برخی مواقع برای عمیقتر کردن و دستوپنجه نرم کردن با مفاهیم ضروری است. اگر دانشجویان به آن متکی شوند و تواناییهای نگارش لازم را کسب نکنند، وجود دارد. “
برخی از موسسات دانشگاهی و اساتید نیز حمایت خود را از استفاده از ChatGPT در کلاس نشان دادهاند.
به گفته اسکات گراهام، دانشیار دپارتمان نویسندگی در دانشگاه تگزاس در آستین، دانشجویان باید نوشتههای خود را به دقت بررسی کنند و اشتباهاتی را که ممکن است وجود داشتهباشد، برطرف کنند. مقالات تولیدشده توسط هوش مصنوعی خیلی خوب نبودند. گراهام استدلال می کند که استفاده از این ابزارها به عنوان تقلب در نظر گرفتهمیشود که آنها واقعاً می توانند به مردم کمک کنند تا مهارت های نوشتاری خود را بهبود بخشند.
به گفتهی پروفسور Saurabh Sinha، معاون پژوهشی و بین المللی دانشگاه ژوهانسبورگ، دانشگاه ها باید حفظ یکپارچگی آکادمیک را برای رسیدگی به استفاده روزافزون از ChatGPT و پیشرفت های پیشبینیشده در هوش مصنوعی، با در نظرگرفتن محیط متغیری که فارغ التحصیلان با آن مواجه خواهند شد، در اولویت قرار دهند. او این اظهارات را در دانشگاه جهانی نیوز بیان کرد. او بر ارزش دانشجویان فارغ التحصیل که آماده، سازگار و متعهد به یادگیری مادام العمر هستند. تأکید کرد زیرا ابزارها و فناوری های جدید دائما در حال توسعه هستند. برای مبارزه با سوء استفاده علمی، او همچنین توصیه کرد که دانشگاه ها به دنبال پیاده سازی نرم افزار تشخیص سرقت ادبی باشند.
ناشران همچنین نظرات خود را در مورد استفاده از ChatGPT هنگام ایجاد مقالات تحقیقاتی بیان کرده اند. برخی از ناشران هنوز هیچ قانونی برای استفاده از متن تولیدشده توسط هوش مصنوعی ایجاد نکردهاند. بسیاری از کسانی که این کار را انجام دادهاند از نویسندگان می خواهند که استفاده خود را به جای منع کامل استفاده از چنین فناوری های خودکار اعلام کنند. ویراستاران و داوران همتا متأسفانه در حال حاضر گزینههای کمی دارند زیرا هیچ سیستمی برای اطمینان از انطباق وجود ندارد. در حال حاضر هیچ نرم افزاری وجود ندارد که بتواند متنی را که به صورت مصنوعی ساختهشدهاست به طور قابل اعتماد و درست شناسایی کند.
مفهوم انتساب نویسندگی به یک ابزار هوش مصنوعی بحث هایی را در مورد اینکه “نویسنده” چیست و “مشارکت” در این زمینه به چه معناست، برانگیخته است.
در پاسخ به نگرانیهای ایجادشده در مورد استفاده از ChatGPT، سازمانهایی مانند Nature و همه مجلات Springer Nature، JAMA Network، Elsevier، Cell، Lancet، COPE، و WAME دستورالعملهای سرمقاله و انتشار خود را بهروزرسانی کردند تا از نویسندگان بخواهند اعلام کنند که مقاله چگونه نوشتهشدهاند. از ابزارهای هوش مصنوعی استفاده کردهاند در حالی که به صراحت اعلام کردهاند که ChatGPT نمیتواند به عنوان نویسنده در یک مقاله دانشگاهی فهرست شود. به گفتهی Magdalena Skipper، سردبیر Nature،”انتساب نویسنده مسئولیتی را برای کار به همراه دارد، که نمیتواند به طور موثر برای LLM ها اعمال شود.”
به گفته اندرو دیویس،معاون رئیس جمهور،دستورالعملها اجازه استفاده از ابزارهای هوش مصنوعی را میدهند. “برای بهبود خوانایی و زبان مقاله تحقیقاتی،اما نه برای جایگزینی وظایف کلیدی که باید توسط نویسندگان انجام شود،مانند تفسیر دادهها یا نتیجهگیری علمی”
اگرچه ChatGPT را نمیتوان به عنوان یک نویسنده در نظر گرفت. سردبیر eLife، Michael Eisen احساس میکند که نمیتوان از استفاده از آن اجتناب کرد. او گفت”من فکر میکنم سؤال بهتر این است که چگونه میتوان این واقعیت را که از آن استفاده میشود مدیریت کرد.” مهمترین چیز،حداقل در حال حاضر،این است که نویسندگان در مورد استفاده از آن بسیار پیشرو باشند و نحوه استفاده از آن را شرح دهند. ما روشن کنیم که در استفاده از ابزار، مسئولیت خروجی آن را بر عهده میگیرند.”
اما رویکرد سختگیرانهتری توسط سردبیر ساینس، یک مجله علمی برتر بین المللی اتخاذ شد که استفاده از متن تولیدشده توسط هوش مصنوعی را در مقالاتی که ارسال میشود ممنوع کرد و به صراحت اعلام کرد که نمیتوان آن را به عنوان نویسنده فهرست کرد. با این حال،برای شفافسازی مسائل،اکنون مجوز و خطمشیهای ویرایشی خود را به روز میکنیم تا مشخص کنیم که متن تولیدشده توسط ChatGPT(یا هر ابزار هوش مصنوعیدیگر)نمیتواند در کار استفاده شود. همچنین نمیتوان از شکلها،تصاویر یا گرافیکها محصول چنین مواردی باشد.
پذیرش آینده هوش مصنوعی با اخلاق و مسئولیت
مشکلات متعددی در استفاده از ChatGPT به عنوان یک ابزار هوش مصنوعی برای تولید محتوا، به ویژه در بخشهای دانشگاهی و انتشاراتی وجود دارد.
اگرچه غیرقانونی کردن این ابزار ممکن است یک راه حل ساده به نظر برسد، اما ممکن است بهترین اقدام نباشد. نیاز مبرم این است که راهبردهایی برای شناسایی و جلوگیری از سرقت ادبی اجرا شود و در عین حال دانشجویان و محققان را در مورد اخلاق دیجیتال و استفاده اخلاقی از تکنیکهای هوش مصنوعی آموزش دهیم.
مربیان و ناشران علاوه برپرداختن به استفاده از محتوای تولیدشده توسط هوش مصنوعی در تکالیف و مقالات دانشگاهی باید در سیاست های خود تجدید نظر کنند تا از نویسندگان بخواهند استفاده از این ابزارها را افشا کنند. این به ما به عنوان افراد و مؤسسات بستگی دارد که از فناوری به طور مسئولانه و اخلاقی استفاده کنیم.