Edit model card

image/png

image/png

image/png

Metrics

TrainOutput(
  global_step=6732,
    training_loss=2.959243166963755,
    metrics={
      'train_runtime': 66894.0816,
      'train_samples_per_second': 1.61,
      'train_steps_per_second': 0.101,
      'total_flos': 0.0,
      'train_loss': 2.959243166963755,
      'epoch': 2.0056606584239534
    }
)

example output:

<bos><start_of_turn>system
You are a helpful AI assistant.
Its objective is to fulfill exactly the task that the user is asked of it.
Use your learned knowledge<end_of_turn>
<start_of_turn>user
explicame yolo en solo 2 items, dame un ejemplo en python<end_of_turn>
<start_of_turn>model
El YOLO (YOLO: You Only Look Once) es un modelo de aprendizaje automático que se utiliza para detectar objetos en imágenes o videos sin necesidad de procesar toda la imagen o video de manera exhaustiva. El objetivo del YOLO es identificar los objetos con mayor probabilidad de ser presentes en una imagen que se ha precalificado con múltiples configuraciones del mismo.

Para implementar el YOLO en Python, primero se debe instalar el módulo `yolo` si aún no lo hay, utilizando el siguiente comando en la línea de comandos:

bash:
pip install yolo


Luego, se puede escribir el código en Python usando el módulo `yolo`:


from yolo import YOLO
import cv2

# Carga la configuración del YOLO
config = YOLO(weights='yolov3s.pt5', classes=40)

# Inicializa la cámara web
camera = cv2.VideoCapture(0)

# Continúa capturando imágenes hasta que se cierre la sesión
while True:
    ret, frame = camera.read()
    if not ret:
        break

    # Preprocesamiento de la imagen
    img = cv2.resize(frame[0], (300, 300))
    rgb_image = np.array(img).astype('float32') / 255.0

    # Ejecuta el YOLO sobre la imagen
    results = config.predict(np.expand_dims(rgb_image, axis=[0, 1]))

    # Busca las salidas más relevantes
    class_id = int(results.argmax())
    class_name = config.get_class_name(class_id)

    # Dibuja el cuadro alrededor del objeto encontrado
    cv2.rectangle(frame, (class_name, class_name + 5), (class_name + 5, class_name + 5), (0, 255, 0), 2)

    # Actualiza la salida de la captura de fotos
    cv2.imshow('Frame %d' % int(len(results)), frame)

    # Si se presiona 'Esc' se detiene la captura
    if cv2.waitKey(1) & 0xFF == ord('esc'):
        break

# Cierra la cámara web
camera.release()
cv2.destroyAllWindows()


Este código utiliza el módulo `yolo` para cargar una configuración del YOLO, luego capturar imágenes con la cámara web y detectarlos utilizando el YOLO. Los resultados son dibujados en la imagen resultante y se espera que se presione cualquier tecla 'Esc' para detener la captura.<end_of_turn>
CPU times: user 30.7 s, sys: 7.27 ms, total: 30.7 s
Wall time: 30.7 s

colab examples.

model_id= "NickyNicky/gemma-1.1-2b-it_oasst_format_chatML_unsloth_V1_orpo_V2"

https://colab.research.google.com/drive/16qS7NMSu20LzcwvYCrBGVI7rd9Hr-vpN?usp=sharing
Downloads last month
1
Safetensors
Model size
2.51B params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Dataset used to train NickyNicky/gemma-1.1-2b-it_oasst_format_chatML_unsloth_V1_orpo_V2