تأثیر هوش مصنوعی بر محتوای رسانه ای و آینده روزنامه نگاری
به گزارش واحد فرهنگی خبرگزاری صبح اقتصاد این پژوهش با هدف بررسی تأثیر هوش مصنوعی بر آینده روزنامه نگاری انجام شد. بر اساس مدل پنج عاملی پیلکان، تلاش شد ثوابت، روندها، نااطمینانیها شوکها و تصاویر مطلوب یا ناخواسته آینده در این حوزه شناسایی و تحلیل شوند. روش پژوهش مبتنی بر آینده پژوهی با استفاده از مدل پیلکان بود.
داده ها از طریق تحلیل کیفی مقالات معتبر بررسی گزارشهای صنعتی و تحلیل اسناد مرتبط جمع آوری شدند. هر یک از عوامل پنج گانه مدل پیلکان با استفاده از این داده ها شناسایی و تفسیر شدند.
بررسیها نشان داد که ثوابت مهم در آینده روزنامه نگاری شامل اصول اخلاقی، شفافیت، اعتماد مخاطبان و نقش نظارتی رسانهها است. روندهایی مانند استفاده گسترده از هوش مصنوعی در تولید محتوا، روزنامه نگاری داده محور و شخصی سازی محتوا در حال تقویت است.
نااطمینانیهایی نظیر نحوه قانون گذاری، پذیرش مخاطبان و تأثیرات اقتصادی نیز به عنوان چالشهای پیش رو شناسایی شدند. همچنین شوکهایی نظیر ظهور هوش مصنوعی عمومی یا بحرانهای زیست محیطی مرتبط با فناوری مطرح شدند. در نهایت تصاویر مطلوب شامل بهبود تعامل مخاطبان و دقت محتوا و تصاویر ناخواسته شامل کاهش اعتماد عمومی و تمرکز قدرت در دست شرکتهای بزرگ ارائه شد.
ظرفیت بالای هوش مصنوعی برای تغییر و ارتقای روزنامهنگاری
هوش مصنوعی ظرفیت بالایی برای تغییر و ارتقای روزنامه نگاری دارد؛ اما استفاده مؤثر از این فناوری نیازمند توجه به اصول اخلاقی قوانین مناسب و مدیریت چالشهای پیش رو است.
این پژوهش نشان میدهد که آینده ای پایدار و مطلوب برای روزنامه نگاری تنها از طریق ترکیب فناوری با ارزشهای انسانی قابل تحقق است.
یافته های این پژوهش بر ضرورت مدیریت هوشمندانه این فناوری و تدوین راهبردهایی برای مواجهه با آینده ای پیچیده و چندوجهی تأکید دارد.
اهمیت اعتماد مخاطبان
اعتماد مخاطبان به رسانه ها یکی از پایه های اساسی روزنامه نگاری است که حتی با ورود فناوریهای پیشرفته نیز تغییر نخواهد کرد بدون اعتماد محتوای تولید شده توسط رسانه ها از اعتبار ساقط میشود. حتی اگر این محتوا از نظر فناوری پیشرفته باشد. برای حفظ اعتماد مخاطبان رسانه ها باید شفافیت در استفاده از هوش مصنوعی و روشهای تولید محتوا را تضمین کنند.
به عنوان مثال اگر رسانهای از الگوریتم های هوش مصنوعی برای تولید گزارشهای خبری استفاده کند باید این موضوع را به صورت شفاف به مخاطبان اعلام کند. عدم شفافیت در این زمینه میتواند اعتماد مخاطبان را به شدت تضعیف کند.
چارچوب های قانونی و نظارتی
چارچوبهای قانونی برای کنترل و نظارت بر فعالیت رسانه ها حتی با ورود هوش مصنوعی نیز همچنان یک اصل ثابت باقی خواهد ماند. این قوانین باید برای پوشش جنبه های جدیدی مانند استفاده از هوش مصنوعی توسعه یابند. برای مثال قوانین مربوط به حفاظت از داده ها و حقوق مالکیت معنوی باید به گونه ای تنظیم شوند که از سوء استفاده احتمالی از فناوری های هوش مصنوعی جلوگیری کنند. به عنوان نمونه ممکن است الگوریتم های هوش مصنوعی محتوایی تولید کنند که حقوق مالکیت معنوی دیگران را نقض کند. در چنین شرایطی وجود قوانین جامع و شفاف میتوانـد از وقـوع مشـکلات حقوقـی جلوگیـری کنـد و از کاربـران فنـاوری محافظـت کند.
نقش محوری روزنامه نگاری در نظارت بر قدرت
روزنامه نگاری به عنوان یک ابزار نظارتی در دموکراسیها همچنان به نقش خود در نظارت بر قدرت و پاسخگو نگه داشتن مسئولان ادامه خواهد داد. هوش مصنوعی میتواند این نقش را تقویت کند به ویژه از طریق تحلیل داده های بزرگ و شناسایی الگوهای مشکوک مرتبط با سوء استفاده از قدرت.
فناوریهای هوش مصنوعی میتوانند برای تقویت شفافیت و کشف تخلفات مورد استفاده قرار گیرند. برای مثال، در یک پروژه تحقیقاتی درباره فساد دولتی، الگوریتم های هوش مصنوعی میتوانند هزاران سند مالی را در مدت کوتاهی تحلیل کرده و ناهنجاری ها را شناسایی کنند. در نهایت خبرنگاران میتوانند از این تحلیل ها برای تهیه گزارشهای عمیق استفاده کنند.
نیاز به محتوای انسانی و روایت محور
با وجود پیشرفتهای هوش مصنوعی در تولید محتوا نیاز به روایتهای انسانی همچنان باقی خواهد ماند. انسانها توانایی درک عواطف زمینه های اجتماعی و مفاهیم پیچیده را دارند که هوش مصنوعی نمیتواند به طور کامل جایگزین آن شود. این مهارت انسانی در ایجاد ارتباط عاطفی با مخاطبان بسیار حیاتی است.برای نمونه در یک گزارش خبری درباره یک بحران انسانی، هوش مصنوعی میتواند داده ها را جمع آوری کند؛ اما روایت انسانی که احساسات و داستانهای شخصی را به تصویر بکشد تأثیر بیشتری بر مخاطبان خواهد داشت.
کشف مشکلات اخلاقی جدید در استفاده از هوش مصنوعی
کشــف ناگهانــی مشکلات اخلاقی جدیــد در اســتفاده از هــوش مصنوعــی، ماننــد تبعیضهــای نهفتــه در الگوریتمهــا یــا ســوگیریهای پنهــان، میتوانــد موجــب شــوکی جــدی در رسـانهها شــود. ایــن مسـاله ممکن اســت بــه توقــف موقــت اســتفاده از ایــن فناوریهــا منجر شــود
در یکــی از تحقیقات، مشــخص شد کـه الگوریتمهـای هـوش مصنوعـی مـورد اسـتفاده در برخـی پلتفرمهای خبـری، اطلاعات مربـوط بـه اقلیتهـای قومـی را کمتـر پوشـش میدهنـد. ایـن موضـوع منجـر بـه انتقادهای گسـتردهای از سـوی جوامـع مدنـی و فعـالان حقـوق بشـر شـد و رسـانهها مجبـور بـه بازبینـی در نحــوه اســتفاده از هــوش مصنوعی شــدند.
پیشنهادهایی برای مواجهه با آینده در روزنامه نگاری
قوانین شفاف و جامع برای استفاده از هوش مصنوعی در رسانه ها تدوین شود تا اصول اخلاقی و اعتماد مخاطبان حفظ شود.
سرمایه گذاری در آموزش مهارتهای مرتبط با هوش مصنوعی به خبرنگاران و توسعه ابزارهای حمایتی میتواند نقش انسان در کنار ماشین را تقویت کند.
رسانه ها باید فرآیندهای استفاده از هوش مصنوعی را به مخاطبان خود شفاف سازی و از الگوریتمهای قابل توضیح استفاده کنند.
این مقاله علمی، پژوهشی در دومین شماره «فصلنامه فضای مجازی و رسانههای اجتماعی» به چاپ رسیده است.
حمیدرضا آل محمد، دانشجوی کارشناسی ارشد مدیریت رسانه و عباس اسدی، دانشیار گروه روزنامهنگاری و مدیریت رسانه، دانشکده علوم ارتباطات اجتماعی، دانشگاه علامه طباطبایی محققان این پژوهش هستند.
- منبع خبر : ایرنا