مجله پژوهش‌های کارآفرینی

مجله پژوهش‌های کارآفرینی

چارچوب شهودی ساخت–سنجش–یادگیری برای طراحی و توسعه ابزارهای هوش‌مصنوعی مولد سفارشی بعنوان محصول فناورانه استارتاپی

نوع مقاله : علمی- پژوهشی

نویسندگان
1 گروه توسعه کارآفرینی، دانشکده کارآفرینی، دانشگاه تهران، تهران، ایران.
2 گروه کسب و کار جدید، دانشکده کارآفرینی، دانشگاه تهران، تهران، ایران.
چکیده
ظهور هوش مصنوعی مولد و مدل‌های زبانی بزرگ، توسعه افزونه‌های مبتنی بر چت‌جی‌پی‌تی را به شاهراه نوآوری نرم‌افزار بدل کرده است؛ بااین‌حال، بر اثر تغییرات داده، به‌روزرسانی‌ مداوم مدل مبنا و پیچیدگی‌های موجود در دریافت و اعمال بازخورد کاربران، روند طراحی و توسعه نرم‌افزارهای مبتنی بر هوش مصنوعی مولد، با قالب‌های خطی یا حتی چابک کلاسیک سازگار نیست. فقدان فرایندی که آزمون مکرر و سریع پرامپت (اعلان)، ارزیابی شهودی و نگه‌داشت مداوم را در یک حلقه واحد گرد آورد، شکاف عملیاتی آشکاری پدید آورده است. رویکردهای سنتی آبشاری و حتی اسکرام، بر بینش کاربر اولیه و الزامات ثابت تکیه دارند؛ اما وقتی پرامپت‌ها جانشین مشخصات ساختارمند محصول می‌شوند، مدل‌های موجود پاسخ‌گو نیستند و روش‌های موجود طراحی و توسعه محصول باعث می‌شود که تیم‌ها یا ناچار به عرضه شتاب‌زده شوند یا در چرخه تغییرات بی‌پایان به دام بیفتند. این پژوهش، برای پرکردن این شکاف، فرایندی غیرخطی و انعطاف‌پذیر را پیشنهاد می‌کند که طراحی و توسعه افزونه‌های چت‌جی‌پی‌تی را هدایت کرده و نظریه مهندسی نرم‌افزار را به مطالبات عینی سامانه‌های هوش‌مصنوعی‌مولد پیوند می‌زند.

روش‌شناسی: مطالعه با طرح کیفی و تحلیل محتوای استقرایی انجام شد. دوازده متخصص هوش‌مصنوعی، طراحی محصول و مهندسی نرم‌افزار در مصاحبه‌های نیمه‌ساختاریافته ۴۰ تا ۸۰ دقیقه‌ای شرکت کردند. مصاحبه‌ها توسط دو محقق کدگذاری شد و مقایسه میان‌کدگذاران پایایی را تضمین کرد؛ شاخص کاپا ۰٫81، قابلیت اعتماد را تأیید نمود. راهنمای مصاحبه محورهایی چون شناسایی نیاز، توسعه مفهوم، ارزیابی کیفیت، ادغام با عامل‌های بیرونی، تفاوت‌های فرایندی و ملاحظات امنیتی را پوشش می‌داد. کدگذاری در چارچوب مرحله–دروازه انجام شد و سپس طی چند دور پالایش نظری تا اشباع مفهومی پیش رفت. فرایند کدگذاری در ان‌ویوو صورت گرفت و اختلاف‌های باقی‌مانده با بحث رفع شد.

یافته‌ها: از تحلیل مصاحبه‌ها، چرخه شهودی ساخت-سنجش-یادگیری احصا شد: ۱) ساخت هدایت‌شده با چشم‌انداز، ۲) طراحی آزمون درون‌تیمی، ۳) ارزیابی شهودی به‌جای بازخورد بیرونی اولیه، ۴) حلقه یادگیری مرکب شهودی، کیفی و کمّی، ۵) تصمیم‌گیری شهودی برای تصمیم به اصلاح یا ادامه، ۶) دریافت بازخورد نوآوران پس از دستیابی به کمینه‌محصول مانا، و ۷) نهایی‌سازی توأم با نگه‌داشت پیوسته عملیات‌مدل‌زبانی‌بزرگ. این چرخه، برخلاف چرخه کلاسیک ساخت-سنجش-یادگیری، از چشم‌انداز آغاز می‌کند، نه فرضیه ابطال‌پذیر، و تا هنگامی که نمونه‌ای قابل‌ استفاده پدید نیاید، شهود توسعه‌دهنده را معیار اصیلی برای ارزیابی در نظر می‌گیرد.

نتیجه‌گیری: این مقاله با بسط مفهوم استارتاپ ناب در بستر هوش مصنوعی مولد، گامی عملی برای آموزش و ترویج کارآفرینی فناورانه ارائه می‌دهد. چرخه شهودی ساخت-سنجش-یادگیری نشان می‌دهد که موفقیت در طراحی افزونه‌های چت‌جی‌پی‌تی به ترکیب درست قضاوت شهودی توسعه‌دهنده با بازخورد مداوم وابسته است. این مدل با ادغام داوری انسانی، ابزارهای ارزیابی چندمعیاره و نگه‌داری مداومِ مدل، فاصله میان نظریه‌های چابک و واقعیت‌های پیچیده فناوری نوظهور هوش مصنوعی مولد را می‌کاهد. دستاورد نهایی مدل، ایجاد پیوندی روشن بین نظریه و واقعیت است؛ پیوندی که به کارآفرینان کمک می‌کند ایده‌های خود را با منابع محدود، به محصولات واقعی مبتنی بر هوش‌مصنوعی مولد تبدیل کنند. چارچوب پیشنهادی می‌تواند به‌عنوان راهنمایی کاربردی برای توسعه‌دهندگان، پژوهشگران، سیاست‌گذاران و مدرسان کسب‌وکار به کار رود تا فرایند نوآوری در این حوزه ساده‌تر، سریع‌تر و با ریسک کمتر پیش برود.
کلیدواژه‌ها

موضوعات


عنوان مقاله English

A Heuristic Build–Measure–Learn (BML-H) Framework for Designing and Developing custom GPTs as Generative-AI Tools

نویسندگان English

Mohammad Etemadi 1
Ali Davari 2
1 Entrepreneurship Development Department, Faculty of Entrepreneurship, University of Tehran, Tehran, Iran.
2 New Business Department, Faculty of Entrepreneurship, University of Tehran, Tehran, Iran.
چکیده English

Introduction: The emergence of generative AI and large language models has turned the development of ChatGPT-based extensions into a main route of software innovation; yet the life-cycle of such tools—shaped by data drift, constant base-model updates and the difficulty of collecting early user feedback—does not fit linear or even classical agile templates. The absence of a process that unifies rapid prompt iteration, heuristic evaluation and LLMOps maintenance creates a marked operational gap. Traditional waterfall and even Scrum assume early, stable user insight, something rarely available when prompts substitute for hard requirements and model updates modify behaviour overnight. Without a dedicated process, teams risk either premature user exposure or endless internal tinkering. This study therefore seeks to bridge the gap by proposing a non-linear, flexible process that guides the creation and evolution of ChatGPT extensions, reconnecting software-engineering theory with the concrete demands of GenAI systems.

Methodology: The research followed a qualitative, inductive content-analysis design. Twelve experts in AI, product design and software engineering participated in semi-structured interviews lasting 40–80 minutes each. Transcripts were double-coded for reliability; inter-coder comparison ensured consistency. The interview guide covered need identification, concept evolution, quality assessment, integration with external agents, process differences and security concerns. Initial codes were mapped onto the Stage-Gate framework and then iteratively refined until theoretical saturation emerged, yielding the final pattern. Coding proceeded in NVivo; disagreements were resolved through discussion until kappa exceeded 0.75, indicating acceptable reliability. This constant-comparison approach preserved analytical rigour while allowing new categories to surface.

Findings: Coding produced the “BML-H cycle”: (1) vision-driven building, (2) internal test-design, (3) heuristic evaluation replacing early external feedback, (4) a composite learning loop—heuristic, qualitative and quantitative, (5) heuristic decision-making for iteration or progression, (6) innovators’ feedback after reaching an MVP, and (7) finalisation coupled with continuous LLMOps maintenance. The process proved parallel, adaptive and capable of keeping pace with rapid base-model change. Unlike classical BML, the cycle starts from a vision rather than a falsifiable hypothesis and treats developer intuition as a first-class evaluation metric until a usable prototype permits metric-based testing.

Conclusion: The BML-H cycle demonstrates that success in designing ChatGPT extensions hinges on fusing developer intuition with systematically staged feedback. By embedding heuristic judgement, multi-metric dashboards such as HELM and ongoing model upkeep in a single loop, the model balances exploration speed with responsibility and quality. Consequently, it narrows the gap between agile theory and the intricate realities of GenAI, offering practitioners, researchers and start-ups a concrete roadmap for delivering generative-AI products to market faster, with lower risk and higher added value. For policy-makers, the framework highlights the need to couple regulatory guidance with tooling that supports traceable prompt evolution. For educators, it offers a scaffold for curricula that merge software-engineering, HCI and machine-learning operations. Future studies can extend the model with quantitative checkpoints and automate parts of the heuristic loop.

کلیدواژه‌ها English

ChatGPT extension
Generative Artificial Intelligence (AI) tool
Custom GPT
Product design and development model
Heuristic evaluation

مقالات آماده انتشار، پذیرفته شده
انتشار آنلاین از 19 بهمن 1404

  • تاریخ دریافت 13 مرداد 1404
  • تاریخ بازنگری 05 آذر 1404
  • تاریخ پذیرش 19 بهمن 1404