Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Consulta Datos proveedor #4

Open
davisgon opened this issue May 12, 2018 · 5 comments
Open

Consulta Datos proveedor #4

davisgon opened this issue May 12, 2018 · 5 comments

Comments

@davisgon
Copy link

Buen día

Solamente consultando, necesitamos extraer los datos generales del proveedor, enviándole nit o dpi
http://www.guatecompras.gt/proveedores/consultaDetProvee.aspx?rqp=10&lprv=1005976, revisamos y este sitio no provee de un webservice para ello, podrías por favor ayudarnos como podríamos
obtenerlo?

Gracias
atte David Gonzalez

@RobertoC27
Copy link
Collaborator

Que tal, lo que quieren es obtener la información de todos los proveedores o de algunos en específico?

@davisgon
Copy link
Author

Que tal,

Por el momento los datos específicos de un proveedor, de la parte de busqueda de proveedor de guatecompras por nit o CUI.

Gracias.

@RobertoC27
Copy link
Collaborator

El obstáculo más importante que hay al momento de buscar un proveedor por NIT o CUI es el hecho de que esta forma de buscar está protegida por un sistema de Captcha.
image
Lo que se me ocurre que podrian hacer es buscar el proveedor 'a mano' y pasarle el NIT el link hacia la pagina del proveedor al método que se llama scrape_proveedor(nit, url).

Es decir en el proveedor de tu ejemplo:
image

Se vería algo así la llamada al metodo,

scrape_proveedor(12397806, "/proveedores/consultaDetProvee.aspx?rqp=10&lprv=1005976")

Incluso la parte del nit podrías obviarla, porque solo se usa para verificar que la información no se haya obtenido previamente pero en tu caso eso no va a ser un problema. Con modificar el metodo para que reciba solamente la url del proveedor y que te devuelva el objeto donde lo almacena o lo guarde en un archivo creo que sería suficiente.

@davisgon
Copy link
Author

Gracias Roberto, vamos a verlo.

@fcpauldiaz
Copy link
Member

@davisgon estas usando este scraper o querías un API para obtener la información?

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants