معرفی مدلهای هوش مصنوعی مناسب
۱- مدلهای متنباز (Open Source)
LLaMA 2 (متا): مدلی قدرتمند با قابلیت اجرا روی سرور داخلی
GPT4All: مدلی سبکوزن که نیاز به سختافزار قدرتمند ندارد
BERT (گوگل): مناسب برای کاربردهای خاص و domain-specific
Alpaca: مدل آموزشدیده بر اساس LLaMA
۲- سرویس های ایرانی
پارساچت: سرویس چتبات فارسی
هوش مصنوعی پندار: ارائه API برای توسعهدهندگان ایرانی
چتباتهای داخلی: برخی شرکتهای ایرانی APIهای محدود ارائه میدهند
۳- راه حل ترکیبی
استفاده از مدلهای متنباز روی هاست داخلی و ترکیب با APIهای ایرانی برای عملکرد بهتر
روش های پیاده سازی در وردپرس
روش اول: استفاده از پلاگینهای موجود
پلاگینهای پیشنهادی:
AI Engine (رایگان)
ChatGPT for WordPress (نسخه پولی)
WP AI Chatbot (رایگان)
مزایا:
راهاندازی سریع
نیاز به کدنویسی حداقلی
معایب:
ممکن است با محدودیتهای دسترسی در ایران مواجه شوند
انعطافپذیری کم
روش دوم : پیاده سازی اختصاصی
پیادهسازی چتبات با استفاده از مدلهای متنباز
پیشنیازها:
هاست لینوکس با قابلیت اجرای پایتون
حداقل 4GB RAM
پشتیبانی از PHP 7.4 به بالا
دسترسی SSH (اختیاری اما توصیه میشود)
مرحله ۱: نصب مدل هوش مصنوعی روی سرور
# اسکریپت نصب مدل سبکوزن gpt4all مدل import subprocess import sys def install_requirements(): requirements = [ "torch", "transformers", "flask", "flask-cors", "sentencepiece", "protobuf" ] for package in requirements: subprocess.check_call([sys.executable, "-m", "pip", "install", package]) if __name__ == "__main__": install_requirements() print("نیازمندیها با موفقیت نصب شدند.")
مرحله ۲ : ایجاد API
# ai_server.py
# سرور Flask برای سرویس دهی به مدل هوش مصنوعی
from flask import Flask, request, jsonify
from flask_cors import CORS
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
app = Flask(__name__)
CORS(app)
# تنظیم مدل (مثال با مدل کوچک)
MODEL_NAME = "gpt2" # برای تست - در تولید از مدلهای فارسی استفاده کنید
class ChatBotAI:
def __init__(self):
self.tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
self.model = AutoModelForCausalLM.from_pretrained(MODEL_NAME)
self.history = []
def generate_response(self, prompt, max_length=100):
inputs = self.tokenizer.encode(prompt, return_tensors="pt")
outputs = self.model.generate(
inputs,
max_length=max_length,
num_return_sequences=1,
no_repeat_ngram_size=2,
temperature=0.7,
top_p=0.9
)
response = self.tokenizer.decode(outputs[0], skip_special_tokens=True)
return response
chatbot = ChatBotAI()
@app.route('/api/chat', methods=['POST'])
def chat():
data = request.json
message = data.get('message', '')
if not message:
return jsonify({"error": "پیامی دریافت نشد"}), 400
# تولید پاسخ
response = chatbot.generate_response(message)
# حذف prompt از پاسخ
response = response.replace(message, "").strip()
return jsonify({
"response": response,
"status": "success"
})
@app.route('/api/health', methods=['GET'])
def health_check():
return jsonify({"status": "active"})
if __name__ == '__main__':
app.run(host='0.0.0.0', port=5000, debug=False)http://localhost:5000
