- عنوان کتاب: Cutting-Edge Artificial Intelligence Advances and Implications in Real-World Applications
- نویسنده: Walayat Hussain
- حوزه: آینده هوش مصنوعی
- سال انتشار: 2025
- تعداد صفحه: 201
- زبان اصلی: انگلیسی
- نوع فایل: pdf
- حجم فایل: 3.77 مگابایت
هوش مصنوعی مولد (GenAI) با تغییر نحوه ارتباط و انجام وظایف روزانه ما، بخشهای متعددی را متحول کرده است. این تحول زمینههایی مانند تجارت، تحقیق، آموزش، کدنویسی، مراقبتهای بهداشتی و اشتغال را در بر میگیرد. کاربران میتوانند هوش مصنوعی را وادار به ایجاد متن، کد برنامهنویسی، تصاویر، صدا و ویدئوی شبیه به انسان کنند. برخلاف هوش مصنوعی محاورهای سنتی که به پاسخهای از پیش تعریف شده متکی است، هوش مصنوعی مولد خروجیهایی تولید میکند که از برنامهنویسی اولیه آن فراتر میرود (Lim et al., 2023) و تجربیات یادگیری را، به ویژه در آموزش، افزایش میدهد. با این حال، تضمین دقت، اجتناب از اتکای بیش از حد و پرداختن به حریم خصوصی دادهها برای ادغام موفقیتآمیز آن ضروری است (Eke, 2023). علیرغم چالشهای مختلف ایجاد شده توسط این ابزارهای هوش مصنوعی مولد، از جمله نگرانیها در مورد تأثیر هوش مصنوعی مولد بر اصالت و قابلیت اطمینان ارزیابی (Yu, 2023; Dwivedi et al., 2023)، چنین ابزارهایی پتانسیل قابل توجهی برای کمک به تلاشهای مختلف آموزشی دارند (Ausat et al., 2023)، نقش هوش مصنوعی مولد همچنان قابل توجه است. با وجود چالشها، این ابزارها نویدبخش موارد قابل توجهی هستند، به ویژه برای ایجاد بازخورد شخصیسازیشده در ارزیابیها (Kaiss et al., 2023; Baidoo-Anu and Ansah, 2023). بازخورد ارزیابی سازنده برای بهبود یادگیری دانشآموزان بسیار مهم است، اگرچه ارائه بازخورد به موقع و با کیفیت برای گروههای بزرگ همچنان چالشبرانگیز است (Pardo et al., 2019). در نتیجه، دانشآموزان کاستیهای قابل توجهی را در کمیت و کیفیت بازخوردی که دریافت میکنند، ابراز میکنند (Boud and Molloy, 2013). این چالشها، مربیان را بر آن داشته است تا از دو منبع دیگر بازخورد خارجی استفاده کنند: بازخورد همسالان دانشآموزان یا سیستمهای بازخورد خودکار. در بررسی همسالان دانشآموزان، دانشآموزان کار همسالان خود را ارزیابی میکنند و وسیلهای برای تقویت یادگیری مشارکتی، تشویق به مشارکت فعال و درک عمیقتر از طریق تعامل با بینش همسالان ارائه میدهند (Lerchenfeldt et al., 2019). علاوه بر این، بررسی همسالان میتواند حس پاسخگویی را پرورش دهد، زیرا دانشآموزان مسئولیت ارزیابیها و مشارکتهای خود در فرآیند یادگیری را بر عهده میگیرند. این رویکرد همچنین پتانسیل کاهش حجم کار مربیان را دارد، زیرا دانشآموزان نقش مشارکتیتری در ارزیابی بر عهده میگیرند. با این حال، بازخوردهای غیرمفید، و همچنین سوگیریها و ناهماهنگیها در بازخورد، که توسط همسالان ارائه میشود، باید به عنوان محدودیتهای آن شناخته شود (Lerchenfeldt و همکاران، 2019). سیستمهای بازخورد خودکار سنتی، بازخورد را بر اساس مجموعهای از قوانین از پیش تعریف شده برای ارائه بازخورد تولید میکنند. منبع این قوانین یا متخصصان حوزه (متخصص محور)، دادههای دانشآموز (داده محور) یا هر دو (ترکیبی) است (Deeva و همکاران، 2021). سیستمهای بازخورد خودکار موجود (مانند BEETLE II، ActiveMath، SQL-Tutor و دیگران) مزایای متعددی نسبت به بازخورد مربی مانند سرعت و مقیاسپذیری ارائه میدهند (Deeva و همکاران، 2021). با این حال، آنها محدودیتهایی مانند سطح پایین کنترل یادگیرنده و سازگاری با ویژگیهای دانشآموز، و همچنین تمرکز بیشتر بر اتوماسیون بازخورد برای رسیدگی به حجم کار معلم، به جای پرداختن به کیفیت بازخورد داده شده به دانشآموزان دارند (Deeva و همکاران، 2021). با افزایش استفاده از هوش مصنوعی مولد در ارزیابی ارزیابی و تولید بازخورد (Teubner و همکاران، 2023)، این سوال مطرح میشود که آیا میتوان از آن به طور مؤثر برای تولید بازخورد خودکار استفاده کرد و سودمندی بازخورد تولید شده توسط هوش مصنوعی در مقایسه با سایر انواع بازخورد چگونه است. اگرچه برخی مطالعات (Kochmar و همکاران، 2020؛ Fui-Hoon Nah و همکاران، 2023) از سودمندی ابزارهای هوشمند هوش مصنوعی برای ارائه بازخورد خودکار به دانشآموزان و تأثیر آن بر نتایج یادگیری خبر دادهاند، اما مطالعات در مورد استفاده از ابزارهای مبتنی بر LLM برای ارائه بازخورد به دانشآموزان کمیاب است. برای به دست آوردن یک تحلیل عمیق از اثربخشی بازخورد تولید شده توسط هوش مصنوعی مبتنی بر LLM، ارزیابی سودمندی بازخورد تولید شده توسط هوش مصنوعی برای ارائه نظرات سازنده به دانشآموزان ضروری است.
Generative artificial intelligence (GenAI) has revolutionised numerous sectors by transforming how we communicate and perform daily tasks. This transformation spans fields such as business, research, education, coding, healthcare, and employment. Users can prompt AI to create human-like text, programming code, images, audio, and video. Unlike traditional conversational AI, which relies on predefined responses, Generative AI produces outputs that surpass its initial programming (Lim et al., 2023), enhancing learning experiences, particularly in education. However, ensuring accuracy, avoiding overreliance, and addressing data privacy are essential for its successful integration (Eke, 2023). Despite various challenges posed by these Generative AI tools, including concerns about the impact of Generative AI on originality and assessment reliability (Yu, 2023; Dwivedi et al., 2023), such tools hold significant potential to assist in various educational endeavours (Ausat et al., 2023), the role of Generative AI remains significant. Despite challenges, these tools offer considerable promise, particularly for generating personalized feedback on assessments (Kaiss et al., 2023; Baidoo-Anu and Ansah, 2023). Constructive assessment feedback is critical to improving student learning, though delivering timely, quality feedback for large cohorts remains challenging (Pardo et al., 2019). As a result, students express significant shortcomings in the quantity and quality of the feedback they are provided with (Boud and Molloy, 2013). These challenges have motivated educators to leverage two other sources of external feedback: student peer feedback or automated feedback systems. In student peer review, students evaluate their peers’ work, present a means to foster collaborative learning, encouraging active engagement and deeper understanding through interaction with peers’ insights (Lerchenfeldt et al., 2019). Moreover, peer review can nurture a sense of accountability, as students assume responsibility for their evaluations and contributions to the learning process. This approach also holds the potential to alleviate instructors’ workload, as students take on a more participatory role in assessment. However, unhelpful feedback, as well as biases and inconsistencies in feedback, provided by peers must be acknowledged as its limitations (Lerchenfeldt et al., 2019). Traditional automated feedback systems generate feedback based on predefined set of rules for feedback delivery. The source of this rules is either domain experts (expert-driven), student data (data-driven) or both (hybrid) (Deeva et al., 2021). Available automated feedback systems (such as BEETLE II, ActiveMath, SQL-Tutor, and others) offer several advantages over instructor feedback such as speed and scalability (Deeva et al., 2021). However, they have limitations such as low levels of learner control and adaptiveness to student characteristics, as well as focusing more on feedback automation to address teacher’s workload, rather than mainly addressing the quality of the feedback given to the students (Deeva et al., 2021). With the increasing use of Generative AI in assessment evaluation and generating feedbacks (Teubner et al., 2023), the question arises as to whether it can be effectively used to generate automated feedback and how the usefulness of AI-generated feedback is compared to other types of feedback. Although some studies (Kochmar et al., 2020; Fui-Hoon Nah et al., 2023) reported the utility of intelligent AI tools for providing automated feedback to students and its impact on learning outcomes, studies on the use of LLM-based for providing student feedback are scarce. To gain an in-depth analysis of the effectiveness of feedback generated by LLM-based AI, it is imperative to assess the usefulness of AIgenerated feedback for delivering constructive comment to students.
این کتاب را میتوانید از لینک زیر بصورت رایگان دانلود کنید:
Download: Cutting-Edge Artificial Intelligence Advances and Implications in Real-World Applications
نظرات کاربران