blog

دیدگاه هایی در مورد یکپارچه سازی ChatGPT و AI

ChatGPT

در حالی که برخی ادعا می کنند که متون تولیدشده توسط هوش مصنوعی ChatGPT می تواند بهره وری را افزایش دهد و در زمان صرفه‌جویی کند، برخی دیگر نگران تاثیر بر کیفیت نوشتار و اخلاق جایگزینی نویسندگان انسانی با هوش مصنوعی هستند. این تکنولوژی در حال حاضر وارد مقالات تحقیقاتی آکادمیک در سراسر جهان شده‌است زیرا یک فناوری در دسترس و مقرون به صرفه است. شناخت مشکلاتی که علیرغم مزایای محدود آن (که در واقع خطری برای یکپارچگی تحقیق و دقت علمی است) به وجود می آورد، بسیار مهم است.

 

ChatGPT چه تهدیداتی برای نگارش آکادمیک ایجاد می کند؟

اگرچه ChatGPT این پتانسیل را دارد که ابزاری مفید در تحقیق و آموزش باشد، اما مهم است که قبل از استفاده از آن، محدودیت‌های احتمالی و مسائل اخلاقی را در نظر بگیرید. دقت و بی طرفی نتایج مطالعه ممکن است تحت تأثیر سوگیری قرار گیرد. بعلاوه، این احتمال وجود دارد که پیچیدگی و اصالت مطالب نوشته‌شده توسط انسان را نداشته‌باشد. که می تواند بر روی کیفیت خروجی های تولیدشده تأثیر بگذارد. تاریخ ها، عبارات، نقل قول ها و ایده‌های اصلی تقریبا همیشه ساخته‌می‌شوند. اغلب حقایق را اشتباه در نظر میگیرد. به عنوان مثال، ما چند مرجع در مورد مواد ترموالکتریک انعطاف پذیر درخواست کردیم، و خروجی در زیر آورده‌شده‌است. با بررسی واقعیات، مشخص شد که هیچ یک از آن مراجع وجود ندارد و توسط افراد مذکور نوشته نشده است.

 

کارشناسان دانشگاه های معتبر، ناشران و سیاست گذاران دیدگاه های خود را ارائه می دهند. به دست‌آوردن درک درستی از احساس آنها در مورد استفاده از ChatGPT در نگارش آکادمیک

تکنیک‌های سنتی ارزیابی دانشگاه تحت تأثیر افزایش استفاده از ابزارهای هوش مصنوعی قرار گرفته‌اند و نگرانی‌هایی را در میان اساتید در مورد احتمال سرقت ادبی و تأثیرات بالقوه‌ای که ممکن است بر استانداردهای یکپارچگی تحصیلی داشته باشد، ایجاد کرده است. برخی از مؤسسات آموزشی در کشورهای مختلف اقداماتی را برای منع کامل استفاده از ChatGPT انجام داده‌اند. برخی دیگر رویکرد انتظار و دید را انتخاب کرده‌اند. معلمان تاکید کرده‌اند که استفاده از فناوری‌های هوش مصنوعی نه تنها مانع از توانایی آنها در ارزیابی درک، یادگیری و توانایی‌های تفکر انتقادی دانش‌آموزان می‌شود، بلکه امکان رشد در این زمینه‌ها را نیز برای آنها باقی نمی‌گذارد.

از آنجایی که آنها نگران هستند که دانشجویان بیش از حد به آنها وابسته شوند و روند یادگیری را مختل کنند، چند دانشگاه تصمیم گرفته‌اند که ممنوعیت کامل ChatGPT و قوانین شدید تنها گزینه‌های قابل اجرا هستند. آنا میلز، استاد نویسندگی در یک کالج محلی در منطقه خلیج، نگرانی های خود را در مورد دلایلی که دانشجویان وسوسه می شوند تا از هوش مصنوعی برای نوشتن مقالات خود استفاده کنند، ابراز کرد. ” تکیه کردن به آن به عنوان یک کمک کننده، فکرنکردن و مراحل دشوار نوشتن بسیار وسوسه‌انگیز است. برخی مواقع برای عمیق‌تر کردن و دست‌وپنجه نرم کردن با مفاهیم ضروری است. اگر دانشجویان به آن متکی شوند و توانایی‌های نگارش لازم را کسب نکنند، وجود دارد. “

 

 برخی از موسسات دانشگاهی و اساتید نیز حمایت خود را از استفاده از ChatGPT در کلاس نشان داده‌اند.

به گفته اسکات گراهام، دانشیار دپارتمان نویسندگی در دانشگاه تگزاس در آستین، دانشجویان باید نوشته‌های خود را به دقت بررسی کنند و اشتباهاتی را که ممکن است  وجود داشته‌باشد، برطرف کنند. مقالات تولیدشده توسط هوش مصنوعی خیلی خوب نبودند. گراهام استدلال می کند که استفاده از این ابزارها به عنوان تقلب در نظر گرفته‌می‌شود که آنها واقعاً می توانند به مردم کمک کنند تا مهارت های نوشتاری خود را بهبود بخشند.

به گفته‌ی پروفسور Saurabh Sinha، معاون پژوهشی و بین المللی دانشگاه ژوهانسبورگ، دانشگاه ها باید حفظ یکپارچگی آکادمیک را برای رسیدگی به استفاده روزافزون از ChatGPT و پیشرفت های پیش‌بینی‌شده در هوش مصنوعی، با در نظرگرفتن محیط متغیری که فارغ التحصیلان با آن مواجه خواهند شد، در اولویت قرار دهند. او این اظهارات را در دانشگاه جهانی نیوز بیان کرد. او بر ارزش دانشجویان فارغ التحصیل که آماده، سازگار و متعهد به یادگیری مادام العمر هستند. تأکید کرد زیرا ابزارها و فناوری های جدید دائما در حال توسعه هستند. برای مبارزه با سوء استفاده علمی، او همچنین توصیه کرد که دانشگاه ها به دنبال پیاده سازی نرم افزار تشخیص سرقت ادبی باشند.

ناشران همچنین نظرات خود را در مورد استفاده از ChatGPT هنگام ایجاد مقالات تحقیقاتی بیان کرده اند. برخی از ناشران هنوز هیچ قانونی برای استفاده از متن تولیدشده توسط هوش مصنوعی ایجاد نکرده‌اند. بسیاری از کسانی که این کار را انجام داده‌اند از نویسندگان می خواهند که استفاده خود را به جای منع کامل استفاده از چنین فناوری های خودکار اعلام کنند. ویراستاران و داوران همتا متأسفانه در حال حاضر گزینه‌های کمی دارند زیرا هیچ سیستمی برای اطمینان از انطباق وجود ندارد. در حال حاضر هیچ نرم افزاری وجود ندارد که بتواند متنی را که به صورت مصنوعی ساخته‌شده‌است به طور قابل اعتماد و درست شناسایی کند.

 

مفهوم انتساب نویسندگی به یک ابزار هوش مصنوعی بحث هایی را در مورد اینکه “نویسنده” چیست و “مشارکت” در این زمینه به چه معناست، برانگیخته است.

در پاسخ به نگرانی‌های ایجادشده در مورد استفاده از ChatGPT، سازمان‌هایی مانند Nature و همه مجلات Springer Nature، JAMA Network، Elsevier، Cell، Lancet، COPE، و WAME دستورالعمل‌های سرمقاله و انتشار خود را به‌روزرسانی کردند تا از نویسندگان بخواهند اعلام کنند که مقاله چگونه نوشته‌شده‌اند. از ابزارهای هوش مصنوعی استفاده کرده‌اند در حالی که به صراحت اعلام کرده‌اند که ChatGPT نمی‌تواند به عنوان نویسنده در یک مقاله دانشگاهی فهرست شود. به گفته‌ی Magdalena Skipper، سردبیر Nature،”انتساب نویسنده مسئولیتی را برای کار به همراه دارد، که نمی‌تواند به طور موثر برای LLM ها اعمال شود.”

به گفته اندرو دیویس،معاون رئیس جمهور،دستورالعمل‌ها اجازه استفاده از ابزارهای هوش مصنوعی را می‌دهند. “برای بهبود خوانایی و زبان مقاله تحقیقاتی،اما نه برای جایگزینی وظایف کلیدی که باید توسط نویسندگان انجام شود،مانند تفسیر داده‌ها یا نتیجه‌گیری علمی”

اگرچه ChatGPT را نمی‌توان به عنوان یک نویسنده در نظر گرفت. سردبیر eLife، Michael Eisen احساس می‌کند که نمی‌توان از استفاده از آن اجتناب کرد. او گفت”من فکر می‌کنم سؤال بهتر این است که چگونه می‌توان این واقعیت را که از آن استفاده می‌شود مدیریت کرد.” مهم‌ترین چیز،حداقل در حال حاضر،این است که نویسندگان در مورد استفاده از آن بسیار پیشرو باشند و نحوه استفاده از آن را شرح دهند. ما روشن کنیم که در استفاده از ابزار، مسئولیت خروجی آن را بر عهده می‌گیرند.”

اما رویکرد سختگیرانه‌تری توسط سردبیر ساینس، یک مجله علمی برتر بین المللی اتخاذ شد که استفاده از متن تولیدشده توسط هوش مصنوعی را در مقالاتی که ارسال می‌شود ممنوع کرد و به صراحت اعلام کرد که نمی‌توان آن را به عنوان نویسنده فهرست کرد. با این حال،برای شفاف‌سازی مسائل،اکنون مجوز و خط‌مشی‌های ویرایشی خود را به روز می‌کنیم تا مشخص کنیم که متن تولیدشده توسط ChatGPT(یا هر ابزار هوش مصنوعی‌دیگر)نمی‌تواند در کار استفاده شود. همچنین نمی‌توان از شکل‌ها،تصاویر یا گرافیک‌ها محصول چنین مواردی باشد.

 

پذیرش آینده هوش مصنوعی با اخلاق و مسئولیت

مشکلات متعددی در استفاده از ChatGPT به عنوان یک ابزار هوش مصنوعی برای تولید محتوا، به ویژه در بخش‌های دانشگاهی و انتشاراتی وجود دارد.

اگرچه غیرقانونی کردن این ابزار ممکن است یک راه حل ساده به نظر برسد، اما ممکن است بهترین اقدام نباشد. نیاز مبرم این است که راهبردهایی برای شناسایی و جلوگیری از سرقت ادبی اجرا شود و در عین حال دانشجویان و محققان را در مورد اخلاق دیجیتال و استفاده اخلاقی از تکنیک‌های هوش مصنوعی آموزش دهیم.

مربیان و ناشران علاوه برپرداختن به استفاده از محتوای تولیدشده توسط هوش مصنوعی در تکالیف و مقالات دانشگاهی باید در سیاست های خود تجدید نظر کنند تا از نویسندگان بخواهند استفاده از این ابزارها را افشا کنند. این به ما به عنوان افراد و مؤسسات بستگی دارد که از فناوری به طور مسئولانه و اخلاقی استفاده کنیم.

نویسنده

afsaneh es

دیدگاه بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *