$17,900.00

$15,699.00

$14,286.09 con Transferencia o depósito bancario
12 meses sin intereses de $1,308.25
9% de descuento pagando con Transferencia o depósito bancario
Ver métodos de pago
Envío gratis superando los
Normal (Para robots 260, 270 y 280) 3D (Para robots 260, 270 y 280) Normal (Para robot 320)
Descripción

Si tienes dudas o quieres una cotización, por favor escribe a [email protected] :D

Es un paquete integral para que estudiantes universitarios y de posgrado en robótica exploren de manera práctica los fundamentos y aplicaciones de la visión artificial y la IA en brazos colaborativos. Sus principales atractivos son:

  • 5 algoritmos de reconocimiento visual
    Incluye implementación lista para usar de detección de color, reconocimiento de formas, lectura de códigos QR/bar‑codes, seguimiento de objetos y segmentación básica, permitiéndote experimentar con tareas reales de visión por computadora sin escribir código complejo

  • 7 mejoras de hardware

    • Cámara de alta resolución con ajuste automático de luz y montura reforzada.

    • Adaptive Gripper y Suction Pump 2.0 para dos modos de agarre.

    • Bracket de Inteligencia Artificial (AI Bracket) para montar fácilmente tu Jetson Nano o Raspberry Pi.

    • Fuente de poder DC estable, cableado ordenado y sensores de fin de carrera integrados.

    • Hub USB/SPI para conectar periféricos.

    • PCB de control con firmware optimizado para Python.

    • Carcasa protectora “all‑in‑one” que organiza todo en un solo kit.

  • Compatible con 6 brazos Elephant
    Soporta myCobot 280 (M5Stack, Pi, Jetson Nano), myCobot 320 Pi, mechArm 270, myPalletizer 260, myAGV y myBuddy 280, facilitando el intercambio de hardware entre plataformas para múltiples proyectos de curso o laboratorio

  • 8 módulos de aprendizaje
    Desde fundamentos de adquisición de imagen, calibración de cámaras y filtrado de ruido, hasta control de cinemática inversa basada en visión, detección de colisiones y clasificación de objetos para sorting automático.

  • Escenarios de aplicación práctica
    Posicionamiento: ubica piezas en la zona de trabajo con precisión milimétrica.
    Agarre: usa Adaptive Gripper o Suction Pump para capturar objetos de distintas formas.
    Clasificación/Sorting: implementa flujos de trabajo de picking y sorting automático.
    Integración ROS/Python: corre demostraciones en Gazebo y ejecuta scripts de control en la Raspberry Pi o Jetson.

  • Software de visualización
    Ofrece una interfaz gráfica intuitiva donde arrastras y sueltas módulos de procesamiento, ves en tiempo real los mapas de profundidad y los bounding boxes, y exportas scripts de Python que corren directamente en tu brazo robótico.

Es la herramienta perfecta para que se combinen la teoría y práctica en visión artificial y robótica colaborativa, acelerando el aprendizaje y abriendo la puerta a proyectos de investigación y tesis de alto impacto