<?xml version='1.0' encoding='UTF-8'?>
<ArticleSet>
  <Article>
    <Journal>
      <PublisherName>همایش آروین البرز</PublisherName>
      <JournalTitle>SEPJR</JournalTitle>
      <Issn></Issn>
      <Volume>2</Volume>
      <Issue>1</Issue>
      <PubDate PubStatus="epublish">
        <Year>2025</Year>
        <Month>09</Month>
        <Day>14</Day>
      </PubDate>
    </Journal>

    <ArticleTitle>Creating an AI-based interactive artistic framework for producing live and responsive graphics in real time, using user motion analysis and environmental data</ArticleTitle>
    <VernacularTitle>ایجاد چارچوب هنری تعاملی مبتنی بر هوش مصنوعی برای تولید گرافیک زنده و واکنش‌گرا در زمان واقعی، با استفاده از تحلیل حرکات کاربر و داده‌های محیطی</VernacularTitle>
    <FirstPage>336</FirstPage>
    <LastPage>353</LastPage>
    <ELocationID EIdType="doi">10.22051/jera.2021.31891.2698</ELocationID>
    <Language>FA</Language>

    <AuthorList>
      <Author>
        <FirstName>الهام</FirstName>
                <Affiliation>کارشناسی ارشد ارتباط تصویری، دانشگاه غیرانتفاعی سپهر، اصفهان، ایران.</Affiliation>
      </Author>
    </AuthorList>

    <PublicationType></PublicationType>

    <History>
      <PubDate PubStatus="received">
        <Year>2025</Year>
        <Month>08</Month>
        <Day>27</Day>
      </PubDate>
    </History>

    <Abstract>In recent decades, the development of artificial intelligence and human-computer interaction technologies has provided unprecedented opportunities for the creation of interactive and responsive artworks. Interactive digital art, with the ability to respond in real time to user behavior, creates a dynamic and personalized experience that enhances the audience&#039;s sense of participation and real presence. However, many existing systems are only able to analyze one type of data and are not able to simultaneously integrate user movements and environmental data. This limitation reduces the quality of interaction and limits the user&#039;s visual experience. The aim of this research is to design an interactive art framework based on artificial intelligence that can produce responsive and lively graphics by analyzing user movements and environmental data in real time. This framework, using deep learning algorithms, reinforcement learning, and multi-source analysis, enables rapid and adaptive response of graphics to environmental and movement changes of users. The research methodology includes designing a multilayer architecture, collecting user motion data through RGB-D cameras and environmental sensors, processing and analyzing data using convolutional and recurrent neural networks, and generating responsive graphics in advanced graphics engines. The reinforcement learning algorithm enables learning user behavior and optimizing graphical responses. Practical examples included interactive installations, augmented reality environments, and multi-user examples, where the system&#039;s performance was evaluated in real-world conditions. The research findings showed that the system is able to analyze complex user movements with an accuracy of more than 90% and provide real-time graphical responses. Environmental data such as light, sound, and temperature caused dynamic changes in visual elements and created a multidimensional and multisensory experience. Real-time processing with a latency of less than 50 milliseconds kept the user experience natural and simultaneous with his interaction. The results also showed that the proposed framework outperforms previous systems in terms of accuracy, multidimensional responsiveness, and flexibility. This research shows that the combination of artificial intelligence, motion and environmental data analysis, and responsive graphics production has the ability to create unique and dynamic interactive artistic experiences and can contribute significantly to the development of digital art, educational environments, and interactive games.</Abstract>
    <OtherAbstract Language="FA">در دهه‌های اخیر، توسعه فناوری‌های هوش مصنوعی و تعامل انسان-کامپیوتر، فرصت‌های بی‌سابقه‌ای برای خلق آثار هنری تعاملی و واکنش‌گرا فراهم کرده است. هنر دیجیتال تعاملی با امکان پاسخ‌دهی بلادرنگ به رفتار کاربران، تجربه‌ای پویا و شخصی ایجاد می‌کند که حس مشارکت و حضور واقعی مخاطب را تقویت می‌کند. با این حال، بسیاری از سیستم‌های موجود تنها قادر به تحلیل یک نوع داده هستند و توانایی ادغام همزمان حرکات کاربر و داده‌های محیطی را ندارند. این محدودیت باعث کاهش کیفیت تعامل و محدود شدن تجربه بصری کاربر می‌شود. هدف این پژوهش، طراحی یک چارچوب هنری تعاملی مبتنی بر هوش مصنوعی است که بتواند با تحلیل بلادرنگ حرکات کاربران و داده‌های محیطی، گرافیک‌های واکنش‌گرا و زنده تولید کند. این چارچوب با بهره‌گیری از الگوریتم‌های یادگیری عمیق، یادگیری تقویتی و تحلیل چندمنبعی، امکان پاسخ‌دهی سریع و تطبیقی گرافیک به تغییرات محیطی و حرکتی کاربران را فراهم می‌آورد. روش تحقیق شامل طراحی معماری چندلایه، جمع‌آوری داده‌های حرکتی کاربران از طریق دوربین‌های RGB-D و حسگرهای محیطی، پردازش و تحلیل داده‌ها با استفاده از شبکه‌های عصبی پیچشی و بازگشتی و تولید گرافیک واکنش‌گرا در موتورهای گرافیکی پیشرفته است. الگوریتم یادگیری تقویتی امکان یادگیری رفتار کاربران و بهینه‌سازی پاسخ‌های گرافیکی را فراهم می‌کند. نمونه‌های عملی شامل نصب‌های تعاملی، محیط‌های واقعیت افزوده و نمونه‌های چندکاربره بودند که عملکرد سیستم در شرایط واقعی مورد ارزیابی قرار گرفت. یافته‌های پژوهش نشان داد که سیستم قادر است حرکات پیچیده کاربران را با دقت بیش از ۹۰٪ تحلیل کرده و واکنش‌های گرافیکی بلادرنگ ارائه دهد. داده‌های محیطی مانند نور، صدا و دما باعث تغییر پویا در عناصر بصری شده و تجربه چندبعدی و چندحسی ایجاد کردند. پردازش بلادرنگ با تأخیر کمتر از ۵۰ میلی‌ثانیه، تجربه کاربر را طبیعی و همزمان با تعامل او حفظ کرد. نتایج همچنین نشان داد که چارچوب پیشنهادی در مقایسه با سیستم‌های پیشین، از نظر دقت، واکنش چندبعدی و انعطاف‌پذیری، عملکرد برتری دارد. این پژوهش نشان می‌دهد که ترکیب هوش مصنوعی، تحلیل داده‌های حرکتی و محیطی و تولید گرافیک واکنش‌گرا، توانایی خلق تجربه‌های هنری تعاملی منحصربه‌فرد و پویا را دارد و می‌تواند به توسعه هنر دیجیتال، محیط‌های آموزشی و بازی‌های تعاملی کمک شایانی کند.</OtherAbstract>

    <ObjectList>
      <Object Type="keyword">
        <Param Name="value">Artificial intelligence</Param>
      </Object>
      <Object Type="keyword">
        <Param Name="value">interactive graphics</Param>
      </Object>
      <Object Type="keyword">
        <Param Name="value">real-time processing</Param>
      </Object>
      <Object Type="keyword">
        <Param Name="value">digital art</Param>
      </Object>
      <Object Type="keyword">
        <Param Name="value">motion data</Param>
      </Object>
    </ObjectList>

    <ArchiveCopySource DocType="pdf">/downloadfilepdf/1433708</ArchiveCopySource>
  </Article>
</ArticleSet>
