دوشنبه ۲۴ آذر ۱۴۰۴

علمی

چالش‌های اخلاق پژوهشی در استفاده از هوش مصنوعی

چالش‌های اخلاق پژوهشی در استفاده از هوش مصنوعی
پیام خوزستان - ایسنا / جنبه‌های اخلاقی استفاده از هوش مصنوعی در فرایندهای علمی در یک مطالعه جدید مورد بررسی محققان قرار گرفته است تا نشان داده شود که این فناوری چگونه می‌تواند ...
  بزرگنمايي:

پیام خوزستان - ایسنا / جنبه‌های اخلاقی استفاده از هوش مصنوعی در فرایندهای علمی در یک مطالعه جدید مورد بررسی محققان قرار گرفته است تا نشان داده شود که این فناوری چگونه می‌تواند پژوهش را آسان کند و همزمان چالش‌هایی مهم ایجاد کند.
در سال‌های اخیر هوش مصنوعی وارد بسیاری از بخش‌های زندگی شده و در حوزه پژوهش نیز حضوری پررنگ پیدا کرده است. ابزارهایی مانند Grammarly و ChatGPT و حتی سرویس‌هایی که برای تحلیل و سامان دهی داده‌ها ساخته شده‌اند، سرعت و دقت تحقیقات را بالا می‌برند و به پژوهشگران کمک می‌کنند به داده‌های گسترده دسترسی داشته باشند. همین توانایی باعث شده نقش هوش مصنوعی در شکل گیری پروژه‌های علمی پررنگ تر شود. با این حال، همین پیشرفت‌ها پرسش‌هایی تازه را مطرح می‌کنند. برای نمونه، وقتی یک متن علمی تا حد زیادی با کمک هوش مصنوعی تولید می‌شود، چگونه می‌توان سهم پژوهشگر و ابزار را از هم جدا کرد و اصالت متن را سنجید. این موضوع در کنار مسائلی مانند حریم خصوصی، شفافیت و مسئولیت پذیری، ضرورت پرداختن به اخلاق پژوهش را بیشتر نشان می‌دهد.
بازار
پیشرفت نسل‌های جدید هوش مصنوعی باعث شده موضوعات اخلاقی پیچیده تر شوند. هوش مصنوعی می‌تواند متنی تولید کند که تشخیص آن از متن انسانی دشوار باشد. همچنین ممکن است از داده‌های حساس، بدون رضایت درست استفاده شود یا محتوایی ایجاد شود که استنادهای جعلی یا استدلال‌های نادرست دارد. این نگرانی‌ها نشان می‌دهند که مدیریت اخلاقی استفاده از این ابزارها تنها به یک توصیه ساده محدود نیست و نیاز به چارچوب‌های دقیق و قابل اجرا دارد. برای کاهش این مشکلات باید ابزارهایی برای تشخیص اصالت متون ایجاد شود و پژوهشگران با اصول اخلاق حرفه ای بیشتر آشنا شوند. این تلاش‌ها کمک می‌کند پژوهش از مسیر درست خارج نشود و همچنان قابل اعتماد باقی بماند.
در این میان، سید محمدعلی مرتضوی شاهرودی، کارشناس ارشد علوم ارتباطات اجتماعی در دانشگاه صدا و سیما، به همراه یکی از همکاران هم دانشگاهی خود مطالعه ای مشترک انجام داده‌اند. این دو پژوهشگر به سراغ بررسی اصول اخلاقی هوش مصنوعی در پژوهش‌های علمی رفته‌اند و تلاش کرده‌اند نشان دهند که حضور این فناوری چگونه می‌تواند هم فرصت ساز باشد و هم چالش زا.
پژوهشگران ابتدا اسناد و مطالعات موجود را با رویکردی کیفی بررسی کردند. سپس به مطالعه موردی سیستم‌های هوش مصنوعی در پژوهش پرداخته‌ تا رفتار این ابزارها در شرایط واقعی سنجیده شود. در کنار این دو بخش، رویکرد استقرایی نیز به کار رفته تا از دل داده‌ها الگوهای اخلاقی قابل اعتماد استخراج شود. هدف نهایی این روش، رسیدن به تصویری جامع از رابطه میان هوش مصنوعی و اخلاق پژوهش و ارائه راهکارهایی برای کاهش آسیب‌ها بوده است.
یافته‌های این تحقیق که در «مجله اخلاق پژوهی» منتشر شده‌اند، نشان می‌دهند که هرچند هوش مصنوعی به سرعت و دقت پژوهش کمک می‌کند، اما چالش‌هایی جدی نیز دارد. یکی از مهم‌ترین مشکلات، افزایش احتمال عدم صداقت در متن علمی است. هوش مصنوعی می‌تواند استنادی بسازد که وجود خارجی ندارد یا بخشی از متن را از منابع ناشناس بگیرد. از سوی دیگر، احتمال نقض حریم خصوصی افراد و استفاده از داده‌های حساس بدون کنترل کافی نیز وجود دارد.
بر این اساس، برای استفاده ایمن از هوش مصنوعی، باید ابزارهایی برای تشخیص اصالت متون توسعه پیدا کند و پژوهشگران نیز آگاهی بیشتری درباره خطرات احتمالی داشته باشند. شفافیت در بیان این که چه اندازه از متن یا تحلیل با کمک هوش مصنوعی تولید شده نیز یکی از نکات ضروری است تا مخاطب بتواند محتوای پژوهش را درست ارزیابی کند.
در بخش دیگری از پژوهش گفته شده که هوش مصنوعی با وجود سودهای فراوان، اگر بدون نظارت استفاده شود می‌تواند داده‌های ساختگی، تحلیل نادرست و محتوای غیرقابل اعتماد تولید کند. این موارد به باور عمومی نسبت به پژوهش آسیب می زند. از این رو نیاز به مقررات ملی و بین المللی بیش از گذشته احساس می‌شود.
هر جامعه باید با تکیه بر ارزش‌های اخلاقی و فرهنگی خود، چارچوبی شفاف برای استفاده از هوش مصنوعی طراحی کند. آموزش پژوهشگران، توسعه ابزارهای شناسایی متون جعلی و اعلام شفاف منابع، از اصلی‌ترین راهکارهایی هستند که می‌توانند به حفظ اعتماد در پژوهش کمک کنند.


نظرات شما