به گزارش داتیکا، در آستانۀ دگرگونی در دنیای تولید محتوا، Runway Gen-4.5 بهعنوان جدیدترین مدل هوش مصنوعی برای تولید ویدیو از متن، خود را بهعنوان نقطه عطفی در رسانه و تولید خلاقانه معرفی کرده است. طبق گزارش رسانهها، این مدل میتواند ویدیوهایی با کیفیت بالا (HD) و جزئیات واقعگرایانه از ورودی متنی (prompt) بسازد، کاری که پیش از این با مشکلات فراوانی همراه بود.
ویژگی برجسته مدل جدید – و آنچه آن را نسبت به مدلهای قبلی متمایز میکند – توانایی شبیهسازی واقعگرایانه فیزیک و حرکات است: اشیاء با وزن، شتاب و نیرو واقعی حرکت میکنند و مایعات یا اجسام سیال با دینامیک طبیعیشان ظاهر میشوند.
علاوه بر این، Gen-4.5 در مقایسه با مدلهای رقیب (از جمله مدلهایی که توسط غولهای فناوری، مانند OpenAI و Google توسعه یافتهاند) در بنچمارک مستقل «تبدیل متن به ویدیو» (text-to-video) به امتیاز برتر دست یافته است. این یعنی کاربر یا خالق محتوا دقیقتر میتواند آنچه در ذهن دارد را به کمک هوش مصنوعی به تصویر زنده و متحرک تبدیل کند.
در کنار این پیشرفتها، اما محدودیتهایی نیز وجود دارد: مثلاً گاهی «پایداری» اشیاء در صحنه یا ارتباط علیّت (causal reasoning) به درستی رعایت نمیشود — یعنی ممکن است شاهد حرکتی باشیم که دلیل آن دیده نمیشود (مثل باز شدن در قبل از اینکه دستگیره جابهجا شود). همچنین، مانند مدل قبلی Runway Gen-4، محدودیت زمانی برای کلیپ خروجی وجود دارد و برای تولید ویدیوهای بلندتر باید کار تدوین و ترکیب چند کلیپ کوتاه انجام شود.
از منظر کلیتر، ظهور Gen-4.5 نشانهای است از اینکه تولید محتوای ویدیویی حرفهای — که تا همین چند سال پیش نیاز به تیم فنی، دوربین، نورپردازی و تدوین داشت — دارد به سمت «سادهسازی شدید با هوش مصنوعی» تغییر جهت میدهد. این یعنی خالقان مستقل، فیلمسازان کوچک، هنرمندان دیجیتال و حتی افراد عادی ممکن است بتوانند بدون تجهیزات پیچیده، محتوایی با کیفیت سینمایی بسازند.
اما پایان کار نیست: با تسهیل تولید ویدیو، سوالاتی درباره اصالت و حق مالکیت معنوی، سو استفاده از محتوا (مثلاً جعل واقعیّت، deep-fake، یا دستکاری اطلاعات بصری) مطرح میشود. وقتی مرز بین واقعیت و محتوا ساختگی با هوش مصنوعی به این حد باریک شود، نیاز به قواعد اخلاقی، حقوقی و سیاستگذاری برای رسانه و تولید محتوای دیجیتال بیشتر احساس میشود.


