¡WoW es increíble! Agradezco enormemente el que compartas con la comunidad y desarrolles este tipo de proyectos y tambien que compartas tu guía(proceso). Tu compromiso con el open source es verdaderamente admirable 🤩
Buenas esto es posible para mocap facial. Yo trabajo en Autodesk Maya tengo un programa llamado ifacialmocap nvidia broadcast. Acepta webcam y mediapipe, pero todo lo que encuentro consigo la ventana con la imagen de FaceMesh , pero el programa con el que conecto a Maya detecta la webcam tal cual. Me encantaría saber implementar para lo que sale en la pantalla de FaceMesh sea información valida es decir la información de la captura de mediapipe real.
Hola Santiago, estoy tratando de implementar tu proyecto, pero me encuentro trabado en que quiero predecir el sentimiento predominante del video, tenes idea, yo necesito que me devuelva el sentimiento y la intensidad?... desde aca lo estoy tratando de implemetar def gen_frames(camera, emotion_recognition_system): while True: success, frame = camera.read() if not success: break else: frame = emotion_recognition_system.frame_processing(frame) ret, buffer = cv2.imencode('.jpg', frame) frame = buffer.tobytes() yield (b'--frame ' b'Content-Type: image/jpeg ' + frame + b' ') @bp.route('/video_feed') def video_feed(): camera = Camera(1, 1280, 720) emotion_recognition_system = EmotionRecognitionSystem() return Response(gen_frames(camera, emotion_recognition_system), mimetype='multipart/x-mixed-replace; boundary=frame')