۱۰ ترند برتر هوش مصنوعی و یادگیری ماشین در سال ۲۰۲۴

در این مقاله با انواع هوش مصنوعی و یادگیری ماشین ترند در دنیا و مسیر ایجاد تحول در صنعت به وسیله آنان آشنا می شویم؛ بعد از عرضه ChatGPT در نوامبر ۲۰۲۲، سال ۲۰۲۳ تبدیل نقطه ی عطفی در زمینه هوش مصنوعی شد. پیشرفت‌های سال های گذشته اساس پیشرفت های مهمی در زمینه هوش مصنوعی را فراهم کرده‌ است. اما با وجود اینکه generative AI همچنان جذابیت فراوانی در جهان فناوری دارد، بینش‌ افراد و سازمان ها به تدریج پیچیده‌تر و بالغ‌تر شده و سازمان‌ها تمرکز خود را از آزمایش‌ در زمینه AI به کاربرد آن ها در پروژه‌های واقعی منتقل کرده‌اند. ترندهای پیش بینی شده برای سال ۲۰۲۴ نمایانگر عمق و دقت بیشتر در استراتژی‌های توسعه و استقرار هوش مصنوعی با توجه به موازین اخلاقی، امنیت و همچنین نمایانگر تغییر در قوانین دنیای دیجیتال است. در ادامه، ده ترند اصلی هوش مصنوعی و یادگیری ماشین برای سال ۲۰۲۴ ارائه شده است :
۱. AI Multimodal (هوش مصنوعی چندحالته)
هوش مصنوعی چندحالته به معنای پردازش داده‌های متنی، تصویری، و صوتی به صورت همزمان و پیشرفته‌تر از پردازش داده‌های تک حالته می‌باشد. این نوع از هوش مصنوعی به دنبال تقلید از توانایی‌های انسان در پردازش اطلاعات حسی متنوع می‌رود. در کنفرانس MIT EmTech در نوامبر ۲۰۲۳، مارک چن، یکی از مدیران OpenAI، اشاره کرد که می‌خواهند مدل‌های هوش مصنوعی توانایی درک داده‌های تصویری و صوتی را پیدا کرده و بتوانند به اطلاعات (داده‌ها) چندحالته وارد شده به آن‌ها پاسخ دهند. این امکان در مدل GPT-4 فراهم شده است. مارک چن در سخنرانی خود، مثالی از توانایی‌های GPT-4 در پردازش ورودی‌های چندحالته می‌زند که در آن تصویری از داخل یخچال گرفته شده است و از ChatGPT خواسته می‌شود که بر اساس مواد موجود در یخچال یک دستور غذایی پیشنهاد دهد. در اینجا حتی می‌توانیم به صورت صوتی از ChatGPT درخواست کنیم که به ما دستور پخت غذا را پیشنهاد دهد که در این صورت توانایی پردازش صدا و تصویر را همزمان استفاده کرده‌ایم.

 

اگرچه بیشتر طرح‌های هوش مصنوعی تولیدی امروزه بر مبنای متن هستند، اما قدرت واقعی هوش مصنوعی زمانی آشکار خواهد شد که بتوانید متن و مکالمه را با تصاویر و ویدیوها و… ترکیب کنید و آن‌ها را در طیف وسیعی از کسب وکارها به کار ببرید. این موضوع را مت برینگتون، رهبر فناوری در شرکت EY اظهار کرده است. کاربردهای هوش مصنوعی چندحالته متنوع و در حال گسترش است. به عنوان مثال، در حوزه بهداشت، مدل‌های چندحالته می‌توانند تصاویر پزشکی را با توجه به سابقه بیمار و اطلاعات ژنتیکی اش برای بهبود دقت تشخیص، تحلیل و پردازش کنند. علاوه بر آن، به منظور بهبود عملکرد شغلی افراد، مدل‌های چندحالته می‌توانند توانمندی‌های کدنویسی اولیه را به افرادی که تجربه‌ای در این زمینه ندارند، آموزش داده و از طریق ارتقاء سطح دانش و مهارت‌های نیروی کار منجر به بهبود عملکرد سازمانی شود.

همچنین، با ارائه داده‌های جدید به مدل‌های هوش مصنوعی، قابلیت‌های چندحالته آن‌ها بهبود می‌یابد. چن توضیح می‌دهد: “مدل‌های ما در فرآیند مدل‌سازی زبان بهبود می‌یابند و به تدریج محدودیت‌هایی که در یادگیری زبان دارند را پشت سر می‌گذارند، ما می‌خواهیم تا اطلاعات و داده‌های دنیای واقعی را به این مدل‌ها ارائه دهیم تا بتوانند به تنهایی دنیای اطراف خود را درک کرده و آن را تفسیر نمایند.”

 

۲. AI Agentic

هوش مصنوعی Agentic نمایانگر تغییر مهمی از هوش مصنوعی واکنشی به هوش مصنوعی فعال است. AI Agentic سیستم‌های پیشرفته‌ای هستند که توانایی مستقل عمل کردن دارند. به این معنا که برخلاف سیستم‌های هوش مصنوعی سنتی که اصول به ورودی‌های کاربر پاسخ می‌دهند و از برنامه‌ریزی از پیش تعیین‌شده استفاده می‌کنند، AI Agentic به صورتی طراحی شده‌اند تا محیط را درک کنند، اهداف را مشخص کنند و برای دستیابی به اهداف بدون دخالت مستقیم انسان عمل نمایند. به عنوان مثال در مانیتورینگ محیطی، AI Agentic می‌تواند آموزش ببیند تا داده‌ها را جمع‌آوری کند، الگوها را تحلیل کند و در پاسخ به خطراتی مانند نشانه‌های اولیه آتش‌سوزی در جنگل و… اقدامات پیشگیرانه آغاز کند. به همین ترتیب AI Agentic مالی می‌تواند به صورت فعال پرتفویی از سرمایه‌گذاری را با استفاده از استراتژی‌هایی که به تغییرات شرایط بازار واکنش نشان می‌دهند، مشخص و مدیریت کند.

پیتر نورویگ، یکی از مسئولین در دانشگاه استنفورد، می‌گوید سال ۲۰۲۳ سال توانایی گفتگو با هوش مصنوعی بود و در سال ۲۰۲۴ خواهیم دید که هوش مصنوعی قادر خواهد بود کارهایی مانند رزرو رستوران، برنامه‌ریزی سفر و… را نیز انجام دهند.

 

۳. AI Source Open
ساخت مدل‌های زبانی بزرگ و سایر سیستم‌های قدرتمند هوش مصنوعی هزینه‌های زیادی را در بر دارد زیرا در این پروسه به تعداد بسیار زیادی کامپیوتر و داده نیاز است. اما استفاده از یک مدل Open Source به توسعه‌دهندگان این امکان را می‌دهد که کار و مسیر دیگر توسعه‌دهندگان را ادامه داده و با این کار هزینه‌های اولیه را کاهش دهند و دسترسی به هوش مصنوعی را گسترش دهند. هوش مصنوعی Source Open معمولاً به صورت رایگان در دسترس است و این امکان را به سازمان‌ها و پژوهشگران می‌دهد تا در توسعه‌ی کدهای موجود مشارکت داشته و همکاری کنند.

داده‌های GitHub از سال گذشته نشان می‌دهد که تعامل توسعه‌دهندگان با هوش مصنوعی، به ویژه هوش مصنوعی تولیدی، افزایش چشمگیری داشته است. برینگتون گفت: “این موضوع به افراد امکان دسترسی آسان و نسبتاً دموکراتیک را می‌دهد و برای تجربه و کاوش عالی است.” رویکردهای AI Source Open همچنین می‌تواند شفافیت و اخلاقیات را تشویق کند زیرا هنگامی که افراد بیشتری امکان مشاهده و استفاده از کدها را دارند، احتمال بیشتری برای شناسایی اگاهی‌ها و آسیب‌پذیری‌های امنیتی و… وجود دارد. اما سوی دیگر، متخصصان نگرانی‌هایی نیز در مورد سوءاستفاده از هوش مصنوعی Source Open برای تولید اطلاعات نادرست و سایر محتواهای مضر ابراز داشته‌اند. علاوه بر این، ساخت و حفظ منابع Source Open حتی برای نرم‌افزارهای سنتی، سخت است چه برسد به مدل‌های هوش مصنوعی پیچیده و محاسباتی.

 

۴. Generation Retrieval-augmented (RAG)
اگرچه ابزارهای هوش مصنوعی تولیدی در سال ۲۰۲۳ به طور گسترده‌ای پذیرفته و مورد استفاده قرار گرفته‌اند، اما همچنان با مشکل توهم‌زایی مواجه هستند. برای مثال، پاسخ‌هایی به نظر معقول اما نادرست به پرسش‌های کاربران بسیار شایع است که این موضوع یک مانع بزرگ برای پذیرش هوش مصنوعی در سطح سازمان‌ها ایجاد کرده است. مثالی از این مشکل در جایی است که توهم و اطلاعات نادرست

در سناریوهای کسب و کار یا مواجهه با مشتری می‌تواند فاجعه‌بار باشد. RAG به عنوان تکنیکی برای کاهش توهمات ایجاد شده است که پیامدهای بالقوه‌ای برای پذیرش هوش مصنوعی سازمانی خواهد داشت.

RAG ترکیبی از تولید متن به همراه بازیابی اطلاعات است که دقت و ارتباط محتوای تولیدی توسط هوش مصنوعی را افزایش می‌دهد. این موضوع به مدل‌های زبانی بزرگ کمک می‌کند که به اطلاعات خارجی دسترسی پیدا کنند و به تولید پاسخ‌های عمیق‌تر و با زمینه محتوایی دقیق‌تر بپردازند. این مزایا به ویژه برای سازمان‌هایی جذاب هستند که دانش واقعی و به‌روز برای کسب و کار آنان بسیار حیاتی است. این شرکت‌ها می‌توانند از RAG با مدل‌های اصلی استفاده کنند تا چت‌بات‌ها و دستیارهای مجازی موثرتر و با اطلاعاتی دقیق‌تر در اختیار داشته باشند.

 

۵. models AI‬ generative enterprise Customized

مدل‌های هوش مصنوعی سفارشی‌سازی شده برای شرکت‌ها به عنوان ابزارهای عمومی بزرگ‌تر مورد توجه قرار گرفته‌اند، مانند Midjourney و ChatGPT، که بیشترین توجه را از مصرف‌کنندگان در حال استفاده از هوش مصنوعی تولیدی دریافت کرده‌اند. اما برای بهبود عملکرد هوش مصنوعی در امور تجاری، مدل‌های کوچک و مخصوص به یک حوزه خاص احتمالاً بیشترین کاربرد را خواهند داشت و به همین دلیل تقاضای زیادی برای سیستم‌های هوش مصنوعی با توانایی پاسخگویی به نیازهای ویژه وجود دارد.

استفاده از مدل‌های هوش مصنوعی سفارشی‌سازی شده نیاز به منابع مالی و اطلاعات زیادی دارد که برای بسیاری از سازمان‌ها قابل دسترسی نیست. برای استفاده از هوش مصنوعی تولیدی سفارشی، بیشتر سازمان‌ها به جای ایجاد یک مدل جدید از پایه، فقط مدل‌های موجود را با تغییراتی در ساختار یا تنظیمات بر روی مجموعه داده‌های مخصوص به یک حوزه، تغییر می‌دهند.

Workday به عنوان یکی از مثال‌ها، در حال بهینه‌سازی مدل‌های هوش مصنوعی خود است تا بتواند توانمندی‌های مشابهی را برای مدل‌های کوچکتر و متمرکزتر که به راحتی مدیریت می‌شوند، ایجاد کند. این امکان به سازمان‌ها اجازه می‌دهد که بهینه‌تر به نیازها و متقاضیان پاسخ دهند.

مدل‌های هوش مصنوعی سفارشی‌سازی شده قادر به ارائه راه‌حل‌های متنوعی برای تقریباً هر سناریوی کسب و کاری هستند، از پشتیبانی مشتری تا مدیریت زنجیره تأمین و بررسی اسناد و موارد دیگر. این مسئله به خصوص در صنایعی با زبان‌ها و روش‌های تخصصی مانند بهداشت، مالی و حقوقی بسیار اهمیت دارد.

همچنین، ساخت یک مدل سفارشی به جای استفاده از ابزارهای عمومی، به حفظ حریم خصوصی و امنیت کمک می‌کند، زیرا به سازمان‌ها کنترل بیشتری بر روی داده‌های خود می‌دهد. به عنوان مثال، در صورت ساختن یک مدل برای کارهای Workday که شامل داده‌های حساس فردی مانند تاریخچه سلامت است، سازمان نمی‌خواهد این نوع داده‌ها را به اشخاص ثالث انتقال دهد و مشتریان نیز معمولاً نگران انتشار آنها هستند.

با توجه به اهمیت حریم خصوصی، قوانین سختگیرانه‌تری در زمینه هوش مصنوعی در آینده ممکن است سازمان‌ها را به تمرکز بیشتر بر مدل‌های خاص و سفارشی ترغیب کنند، به جای تمرکز بر مدل‌های زبانی بزرگ که با داده‌هایی از سرتاسر اینترنت آموزش دیده‌اند. Gillian Crossan، مشاور اصلی در زمینه ریسک و رهبر بخش فناوری جهانی در Deloitte، این موضوع را توضیح داده و اظهار کرده که این انتقال به مدل‌های خصوصی و متعلق به یک حوزه خاص، از مشتریان نگرانی بیشتری در مورد انتشار داده‌ها جلب می‌کند.

 

۶. talent‬ learning‬‬ machine‬‬ and‬‬ AI‬‬ for‬‬ Need‬‬ (نیاز در بکارگیری استعدادها در زمینه هوش مصنوعی و یادگیری ماشین)

طراحی، آموزش و آزمایش یک مدل یادگیری ماشین کار ساده‌ای نیست، چه برسد به رساندن این مدل‌ها به مرحله‌ای که به تولید و نگهداری داده‌ها در یک محیط پیچیده سازمانی بپردازند. بنابراین نیاز رو به رشد به استخدام استعدادها در زمینه هوش مصنوعی و یادگیری ماشین در سال ۲۰۲۴ و بعد از آن پیش‌بینی می‌شود. به ویژه، با ادغام شدن هوش مصنوعی و یادگیری ماشین در عملیات تجاری شرکت‌ها، نیاز روزافزون به متخصصانی وجود دارد که بتوانند شکاف بین تئوری و عمل را پر کنند. این امر مستلزم آن است که توانایی استقرار، نظارت و نگهداری سیستم‌های هوش مصنوعی را داشته باشند. به طور خلاصه، عملیات یادگیری ماشین رشته‌ای از تخصص‌هاست که به انجام این فرایندها می‌پردازند و این حرفه را معمولاً به نام MLOps، کوتاه شده‌ی عبارت عملیات یادگیری ماشین، نمایش می‌دهند. در سال ۲۰۲۴، انتظار می‌رود که سازمان‌ها (نه فقط شرکت‌های فناوری بزرگ) به دنبال استخدام استعدادهایی با این نوع مهارت‌ها باشند. با توجه به اینکه فناوری اطلاعات و داده در تقریباً تمام عملیات تجاری کسب و کارها حاضر است و پروژه‌های هوش مصنوعی به محبوبیت بالایی دست یافته‌اند، ایجاد و افزایش توانایی‌های داخلی سازمان‌ها در زمینه هوش مصنوعی و یادگیری ماشین مرحله‌ی بعدی در تحولات دنیای دیجیتال خواهد بود.

 

۷. AI Shadow

زمانی که نیروی کار در هنگام انجام وظایف شغلی خود به هوش مصنوعی تولیدی علاقه نشان می‌دهند، سازمان‌ها با مسئله AI Shadow روبرو می‌شوند که در واقع استفاده از هوش مصنوعی در سازمان بدون تأیید رسمی یا نظارت از سوی دپارتمان IT است. این ترند به عنوان AI Shadow به تدریج رواج می‌یابد زیرا هوش مصنوعی دسترسی آسان به اطلاعات را برای مردم فراهم می‌کند و حتی افراد غیرفنی را قادر می‌سازد که به صورت مستقل از آن استفاده کنند. AI Shadow معمولاً زمانی بوجود می‌آید که کارکنان به راه‌حل‌های سریع برای حل یک مشکل نیاز دارند یا می‌خواهند به سرعت تکنولوژی‌های جدید را بررسی کنند و این کار را بدون دریافت مجوزهای رسمی و تایید و نظارت از سوی دپارتمان IT انجام می‌دهند. این موضوع به ویژه برای ربات‌های چت (chatbots)، هوش مصنوعی شایع است زیرا که کارکنان می‌توانند آن‌ها را به سادگی در مرورگرهای وب خود استفاده کنند – بدون اینکه از فرآیندهای بررسی و تأیید IT عبور کنند. این کار همچنین با خطراتی همراه است به عنوان مثال، یک کاربر ممکن است اطلاعات محرمانه تجاری را به یک مدل زبانی معمولی و عمومی وارد کند بدون اینکه دریابد که این کار اطلاعات حساس را در برابر اشخاص دیگری نیز قرار می‌دهد.

در سال ۲۰۲۴، سازمان‌ها باید اقداماتی را برای مدیریت AI Shadow انجام دهند که از طریق چارچوب‌های حاکمیتی تعادل بین حمایت از نوآوری و حفاظت از حریم خصوصی و امنیت را برقرار کند. این موضوع ممکن است شامل تعیین سیاست‌های مشخص برای استفاده از هوش مصنوعی و ارائه پلتفرم‌های تایید شده و همچنین تشویق به همکاری بین IT و رهبران کسب و کارها تا در بهترین شکل از چگونگی استفاده‌ی ادارات مختلف از هوش مصنوعی داشته باشند.

برینگتون با ارجاع به تحقیقات اخیر EY که در آن ۹۰٪ از پاسخ‌دهندگان استفاده از هوش مصنوعی را در محیط کار تایید کردند، می‌گوید: “واقعیت این است که همه از آن استفاده می‌کنند؛ وی در ادامه می‌گوید: بخواهید یا نخواهید، مردم امروز از هوش مصنوعی استفاده می‌کنند، بنابراین باید به دنبال فهم بهتر مدل‌ها و استفاده از آن‌ها به صورت اخلاقی و مسئولانه باشیم.

۸. A Generative AI Reality Check (بررسی واقعیت هوش مصنوعی تولیدی)

هنگامی که سازمان‌ها از هیجان اولیه پیرامون استفاده از هوش مصنوعی تولیدی به سمت درک واقعیات مربوط به آن پیش می‌روند، با مرحله‌ای که اغلب به عنوان “محل ناامیدی” در چرخه‌های پارتنر گارتنر یاد می‌شود، مواجه می‌شوند. با کم شدن هیجان اولیه، سازمان‌ها با محدودیت‌ها و مشکلاتی مانند پایین بودن کیفیت خروجی‌ها، مسائل امنیتی، اخلاقی، مشکلات ادغام با سایر سیستم‌ها و فرآیندهای موجود روبرو می‌شوند. همچنین وظایفی مانند تضمین کیفیت داده، آموزش مدل‌ها و حفظ سیستم‌های هوش مصنوعی در تولید معمول دشوارتر از انتظارات اولیه است. نکته مثبت این است که این مشکلات، اگرچه در کوتاه مدت ناخوشایند هستند، ممکن است در طولانی مدت منجر به نگرشی سالم‌تر و معتدل‌تر نسبت به استفاده از هوش مصنوعی شوند. عبور از این مرحله نیاز به تعیین انتظارات واقعی از هوش مصنوعی دارد و باید درک جامع‌تری از اینکه هوش مصنوعی چه کارهایی را می‌تواند انجام دهد و از عهده چه کارهایی برنمی‌آید داشت.

۹. Increased attention to AI ethics and security risks (افزایش توجه به اخلاقیات و مخاطرات امنیتی هوش مصنوعی)

تکثیر deepfake و محتوای پیچیده تولید شده توسط هوش مصنوعی نگرانی‌هایی را در مورد امکان انتشار اطلاعات غلط و دستکاری در رسانه‌ها، سیاست‌ها، جعل هویت و انواع دیگر کالهبرداری افزایش می‌دهد. هوش مصنوعی همچنین می‌تواند حملات ransomware و phishing را افزایش دهد و آن‌ها را متقاعد‌کننده‌تر، سازگارتر و شناسایی آن‌ها را سخت‌تر کند. اگرچه تلاش‌هایی بسیاری برای توسعه فناوری‌ها در جهت شناسایی محتوای تولید شده توسط هوش مصنوعی در حال انجام است، اما این کار همچنان دشوار و با مشکلاتی مواجه است. دور زدن تکنیک‌های واترمارک هوش مصنوعی فعلی نسبتاً آسان است و نرم‌افزارهای تشخیص هوش مصنوعی مستعد تشخیص نتایج کاذب می‌باشد.

 

۱۰. Evolving AI regulation (تکامل هوش مصنوعی)
بدون شک، با توجه به نگرانی‌هایی که از مطالبات اخلاقی و امنیتی در مورد استفاده از هوش مصنوعی وجود دارد، سال ۲۰۲۴ را باید یک سال محوری برای بازتنظیم قوانین هوش مصنوعی، سیاست‌ها و چارچوب‌های صنعتی که به سرعت در ایالات متحده و در سطح جهان در حال تحول هستند، در نظر گرفت. قانون هوش مصنوعی اتحادیه اروپا، که اعضای پارلمان و شورای اتحادیه اروپا اخیراً در مورد آن به توافق موقت دست یافتند، اولین قانون جامع هوش مصنوعی در جهان را نشان می‌دهد و در صورت تصویب این قانون، استفاده‌های خاصی از هوش مصنوعی ممنوع می‌شود و نیز تعهداتی را بر توسعه دهندگان سیستم‌های هوش مصنوعی پرخطر تحمیل می‌کند و عدم رعایت آن منجر به جریمه‌های چند میلیون دلاری می‌شود. قانون هوش مصنوعی می‌تواند اتحادیه اروپا را به عنوان یک تنظیم‌کننده جهانی هوش مصنوعی مطرح کند که ممکن است استفاده و استانداردهای توسعه هوش مصنوعی جهانی را تحت تأثیر قرار دهد.

فراتر از اثرات سیاست‌های اتحادیه اروپا، فعالیت‌های اخیر در ایالات متحده نشان می‌دهد که چگونه مقررات هوش مصنوعی می‌تواند متحول و اجرا شود. فرمان اجرایی رئیس جمهور جو بایدن در اکتبر، دستورات جدیدی را ایجاد کرد مانند الزام توسعه دهندگان هوش مصنوعی به اشتراک‌گذاری نتایج تست ایمنی با دولت ایالات متحده و همچنین اعمال محدودیت‌هایی برای محافظت در برابر خطرات هوش مصنوعی. آژانس‌های مختلف فدرال نیز دستورالعمل‌هایی را به بخش‌های خاصی صادر کرده‌اند مانند چارچوبی برای مدیریت ریسک هوش مصنوعی NIST و بیانیه کمیسیون تجارت فدرال که به کسب و کارها نسبت به ادعاهای نادرست در مورد استفاده از هوش مصنوعی در محصولاتشان هشدار می‌دهد. در پایان، مسائل پیچیده‌تری نیز در سال ۲۰۲۴ وجود خواهد داشت که سال انتخابات در ایالات متحده است و فهرست فعلی نامزدهای ریاست جمهوری آمریکا طیف گسترده‌ای از مواضع را پیرامون مسائل مرتبط با سیاست‌های فناوری نشان می‌دهد. یک دولت جدید می‌تواند رویکرد نظارت بر هوش مصنوعی را از طریق تغییر یا بازنگری فرمان اجرایی بایدن و دستورالعمل‌های فدرال تغییر دهد و از الزامات محدودکننده موجود بکاهد یا بر آن بیفزاید.

1 پاسخ

دیدگاه خود را ثبت کنید

تمایل دارید در گفتگو شرکت کنید؟
نظری بدهید!

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *