Skip to content

This application uses Streamlab and Streamlit to create an interactive web interface for chatting with a locally hosted Llama 3 language model.

Notifications You must be signed in to change notification settings

tstambulsky/llm-local

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

5 Commits
 
 
 
 
 
 
 
 

Repository files navigation

#Video tutorial paso a paso en video: https://www.youtube.com/watch?v=IZ6ffsLu5RM

Local ChatGPT con Memoria

Esta aplicación utiliza Streamlit para crear una interfaz web interactiva que permite chatear con un modelo de lenguaje Llama 3 alojado localmente.

Descripción

La aplicación permite a los usuarios interactuar con un modelo de lenguaje Llama 3, manteniendo un historial de chat y respondiendo de acuerdo a las instrucciones dadas. Este proyecto demuestra cómo integrar modelos de lenguaje avanzados en aplicaciones web fáciles de usar.

Requisitos

  • Python 3.8+
  • Streamlit
  • OpenAI

Instalación

  1. Clona este repositorio:

    git clone https://github.com/tu-usuario/local-chatgpt-con-memoria.git
    cd local-chatgpt-con-memoria
  2. Crea un entorno virtual e instala las dependencias:

    python -m venv venv
    source venv/bin/activate  # En Windows usa `venv\Scripts\activate`
    pip install -r requirements.txt
  3. Asegúrate de tener un servidor local de Llama 3 corriendo en http://localhost:1234.

Uso

  1. Inicia la aplicación de Streamlit:

    streamlit run app.py
  2. Abre tu navegador y ve a http://localhost:8501 para interactuar con la aplicación.

About

This application uses Streamlab and Streamlit to create an interactive web interface for chatting with a locally hosted Llama 3 language model.

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages