Proyecto tipo: Bot para publicar artículos automáticamente

PROBLEMA

El cliente quiere publicar artículos automáticamente sin la necesidad de intervención humana en su web que está gestionada por un CMS (WordPress).

Proporciona una serie de temáticas y quiere que los artículos tengan cierta actualidad.

Se publicará un artículo cada semana.

PROPUESTA

Se hará una investigación de fuentes de información de donde sacar información de actualidad sobre las temáticas indicadas. Se elegirán 3.

También se buscarán fuentes de información relacionada aunque no sea de actualidad. Se elegirán 2.

Se hará un análisis para determinar cual es la mejor lógica para componer todo lo que se pueda obtener de las distintas fuentes de información en un único artículo con sentido.

Se planteará una plantilla para el formato de los artículos.

Las fuentes que no sean de actualidad se preprocesarán para dejar los datos preparados para los siguientes 2 años tras la puesta en marcha. Adicionalmente, se creará un manual para que cualquiera con conocimientos mínimos pueda repetir dicha tarea cuando se precise.

Se programará el código del bot, teniendo dos componentes principales:

  • Una araña que examine las distintas fuentes de actualidad y recopile la información.
  • Un bot que sea el que efectivamente se encargue de publicar artículos automáticamente en el WordPress del cliente.
Tecnologías

Se usará Python o PHP en función de comprobaciones pendientes de los servidores del cliente, para el código fuente de los dos programas planteados.

Como almacenamiento, dado que no se requiere una gran persistencia y hay mucha tolerancia a errores, se usará SQLite.

El cliente deberá proporcionar acceso de administrador a su instalación de WordPress o realizar las siguientes acciones para el testing y la puesta en marcha:

  • Proporcionar un usuario que tenga permisos de creación de artículos pero no de publicación para el testing.
  • Proporcionar un usuario que tenga permisos para publicar articulos en el WordPress.
  • Realizar las modificaciones necesarias en su instalación de WordPress para asegurar la disponibilidad de la API Rest y alguno de sus plugins de autenticación.

PRECIO

3.700€

TIEMPO

Estará disponible en 2 semanas para verificación por parte del cliente y la puesta en producción, que llevará otra semana. Dado que los artículos se publican cada semana, el primero saldría publicado un mes tras la aporbación del presupuesto.

Nota aclaratoria:

Este proyecto tipo, es un ejemplo de proyecto que se ha realizado o se podría realizar. En ningún caso tiene validez como presupuesto real y sólo pretende documentar las distintas posibilidades que existen.

Actualmente, con los cambios que ha habido en cuanto a las posibilidades existentes, la propuesta podría ser diferente en estos momentos.

Se han omitido nombres de empresas y productos.

Por favor, si tuviese necesidad de algo similar, no dude en ponerse en contacto.

Los mejores recursos para trabajar en tu MVP

Ya vimos en su día una serie de plataformas serverless con las que podríamos construir casi cualquier cosa en Internet. Sin embargo ¿qué hay antes de eso? ¿Hay alguna guía o herramienta que me pueda ayudar? Hoy vamos a ver algunos recursos que nos ayuden a plantear nuestro MVP.

¿Qué e un MVP?

Producto viable mínimo (MVP, del inglés Minimum Viable Product) es un producto con suficientes características para satisfacer a los clientes iniciales, y proporcionar retroalimentación para el desarrollo futuro.

Wikipedia

Herramientas y recursos
  • Sketchboard: para hacer dibujos y diagramas online en equipo de un modo creativo en una pizarra blanca sin límites.
  • Bizplan: software y herramientas para hacer planes de empresa online.
  • Bootstrapping a profitable SaaS Business: un ebook sobre como construir negocios basados en software como servicio por una sóla persona. Los capítulos disponibles tratan de como construir y validar un MVP.
  • The Epic Guide to Bootstrapping a SaaS Startup from Scratch: es el primero de una serie de artículos que habla de como empezar negocios desde cero.
  • Canvanizersirve para hacer un canvas online con el que entender cuales son los puntos clave de tu MVP. Tienes la opción de crear un Business Model Canvas o un Lean Canvas, por ejemplo.
  • Make my persona: Hubspot tiene una herramienta para la creación de personas, con la que podrás de un modo sencillo y muy gráfico definir a los usuarios tipo de tu MVP.
  • Customer journer map onlineUXpressia tiene una herramienta online que te permite definir y analizar fácilmente qué es lo que hace tu usuario tipo antes, durante y después de utilizar tu MVP.
  • Startup Metrics for Pirates: AARRRen el post enlazado tenéis la explicación de las 5 métricas más básicas e importantes que deberíais tener contempladas en vuestro MVP. El video de Dave McClure merece mucho la pena y son sólo 5 minutos.

Con estos textos y herramientas, será mucho más fácil planificar nuestro MVP. De este modo, seremos más efectivos a la hora de implementarlo.

Proyecto tipo: Chatbot buscador

PROBLEMA

El cliente quiere proporcionarle a una tienda online un chatbot buscador de elementos que ayude a los usuarios.

La web dispone de un buscador que no se puede reutilizar.

La base de datos de los elementos no se encuentra accesible.

El chatbot deberá de funcionar igual para los clientes de cualquier parte del mundo.

PROPUESTA

Dado que hay muchas incertidumbres en cuanto al uso, el flujo de conversación y otros puntos del proyecto, que pretende ser de una embergadura muy amplia, se propone hacer un prototipo de chatbot buscador que cumpla con los siguientes puntos que se han acordado con el cliente:

  • El prototipo trabajará con los datos proporcionados por el CLIENTE al PRESTADOR, sobre los elementos ofertados por su cliente.
  • El idioma que entenderá y con el que contestará el prototipo será el castellano, o español de España.
  • Salvo que durante el SEGUIMIENTO DE LA EJECUCIÓN DEL CONTRATO se
    determinase lo contrario entre ambas partes, para la implementación del prototipo se emplearán los servicios de Azure proporcionados por Microsoft.
  • La entrega del prototipo incluye el asesoramiento y respaldo a la hora de la creación de cuentas y de todo lo que sea necesario para realizar su despliegue.
  • La entrega del prototipo incluye la entrega de una estimación de costes de ejecución en base al número de usos que se dé al servicio.
  • El prototipo a desarrollar, será similar al presentado en el ejemplo RealEstateBot proporcionado por Microsoft.
En concreto se implementarán:
  • Una ETL que convierta los datos originales al formato más adecuado.
  • Una base de datos distribuida sobre Azure Cosmos DB.
  • Un motor de búsqueda que será reutilizable en la web y otros servicios, empleando Azure Search.
  • Un motor para el chatbot basado en Azure Bot Service.
  • Se montarán entornos de preproducción y producción.
  • El código se almacenará en un repositorio Git.
  • Se montará un sistema de integración continua con Azure DevOps.

PRecio

6.400€

Tiempo

Dadas las incertidumbres del proyecto, el tiempo de desarrollo será de entre 3 semanas y 3 meses.

Nota aclaratoria:

Este proyecto tipo, es un ejemplo de proyecto que se ha realizado o se podría realizar. En ningún caso tiene validez como presupuesto real y sólo pretende documentar las distintas posibilidades que existen.

Actualmente, con los cambios que ha habido en cuanto a las posibilidades existentes, la propuesta podría ser diferente en estos momentos.

Se han omitido nombres de empresas y productos.

Por favor, si tuviese necesidad de algo similar, no dude en ponerse en contacto.

Proyecto tipo: ICO personalizada

PROBLEMA

Se trata de facilitar a un tercero la creación de una moneda virtual (ICO personalizada).
Así mismo habrá que implementar los medios necesarios para facilitar a sus usuarios la compra-venta de dicha moneda.

Por el momento no está claro para qué se usará dicha moneda, por lo que sólo se considerará un activo digital para acumulación de valor/especulación sin la posibilidad de intercambiarlo directamente por bienes o servicios. Si posteriormente se optase por esta opción, se plantearía una extensión a este desarrollo inicial.

Para la creación de la moneda virtual se pueden seguir diferentes estrategias, por ejemplo:

  • Implementar un token sobre Ethereum
  • Crear una criptomoneda completamente independiente
  • Crear una moneda digital centralizada

Cada uno de estos tiene unos pros y unos contras pero para consideración de este presupuesto, por lo tratado con el cliente, se valorará sólo la primera opción.

Como herramientas para que los usuarios puedan interaccionar con la moneda las opciones también son variadas, considerándose en este presupuesto la planteada por el cliente: web site adaptado para móviles al estilo de Coinbase pero para esta única moneda.

El cliente proporcionará los diseños y estos podrían hacer que variase el presupuesto, por lo que estos deberán proporcionarse antes de comenzar el proyecto para su evaluación, y en su caso modificación de este presupuesto.

Los componentes que contendrá son:
  • Portada
  • Login
  • Dashboard
  • Compra
  • Venta
  • Balances
  • Histórico de transacciones
  • Configuración/Perfil
  • Pasarela de pago (1)
  • Pasarela de cobro (1)
  • Notificaciones por correo electrónico

Toto el sistema se implementaría sobre Azure, el cloud de Microsoft, por ser un proyecto pensado para una corporación y ser Microsoft el principal proveedor de software y servicios corporativos.

Los gastos variables de sistemas y de transacciones entre contratos de Ethereum correrán a cargo del desarrollador durante el desarrollo y la ejecución de pruebas. Dichos gastos, durante la fase de despliegue y ejecución en producción correrán a cargo del cliente, no estando incluidos en este presupuesto.

PRECIO

En la tabla de precio se incluyen algunos componentes opcionales cuyos importes no están sumados al importe final.

Tarea Opcional Precio
1 Auditoría de contratos a extender no 3000
2 Implementación de nuevos contratos no 1500
3 Preparación de infraestructura no 1200
4 Portada no 600
5 Login no 1200
6 Dashboard no 2400
7 Compra no 1200
8 Venta no 1200
9 Balances no 600
10 Histórico de transacciones no 600
11 Configuración/Perfil no 600
12 Pasarela de pago (1) no 1200
13 Pasarela de cobro (1) no 1200
14 Notificaciones por correo electrónico no 600
15 Pasarela de pago adicional si 800
16 Pasarela de cobro adicional si 800
17 Diseño si 1200
Total no opcionales 17.100,00€

Tiempos

El proyecto tiene una estimación de tiempo de entrega de 4 (cuatro) meses, desde la fecha de inicio de los trabajos.

El tiempo podría reducirse a la mitad incrementando el presupuesto en un 50%.

Nota aclaratoria:

Este proyecto tipo, es un ejemplo de proyecto que se ha realizado o se podría realizar. En ningún caso tiene validez como presupuesto real y sólo pretende documentar las distintas posibilidades que existen.

Actualmente, con los cambios que ha habido en cuanto a las posibilidades existentes, la propuesta podría ser diferente en estos momentos.

Se han omitido nombres de empresas y productos.

Por favor, si tuviese necesidad de algo similar, no dude en ponerse en contacto.

Best papers awards in Computer Science of 2018

2018 has finished with a lot of innovations. It brought a lot of awards for papers about several disciplines of Computer Science at different conferences this year. Here we have the abstract of some of them:

  • Memory-Augmented Monte Carlo Tree Search

    This paper proposes and evaluates Memory-Augmented Monte Carlo Tree Search (M-MCTS), which provides a new approach to exploit generalization in online realtime search. The key idea of M-MCTS is to incorporate MCTS with a memory structure, where each entry contains information of a particular state. This memory is used to generate an approximate value estimation by combining the estimations of similar states. We show that the memory based value approximation is better than the vanilla Monte Carlo estimation with high probability under mild conditions. We evaluate M-MCTS in the game of Go. Experimental results show that MMCTS outperforms the original MCTS with the same number of simulations.

  • Finding Syntax in Human Encephalography with Beam Search

    Recurrent neural network grammars (RNNGs) are generative models of (tree,string) pairs that rely on neural networks to evaluate derivational choices. Parsing with them using beam search yields a variety of incremental complexity metrics such as word surprisal and parser action count. When used as regressors against human electrophysiological responses to naturalistic text, they derive two amplitude effects: an early peak and a P600-like later peak. By contrast, a non-syntactic neural language model yields no reliable effects. Model comparisons attribute the early peak to syntactic composition within the RNNG. This pattern of results recommends the RNNG+beam search combination as a mechanistic model of the syntactic processing that occurs during normal human language comprehension.

  • Voice Interfaces in Everyday Life

    Voice User Interfaces (VUIs) are becoming ubiquitously available, being embedded both into everyday mobility via smartphones, and into the life of the home via ‘assistant’ devices. Yet, exactly how users of such devices practically thread that use into their everyday social interactions remains underexplored. By collecting and studying audio data from month-long deployments of the Amazon Echo in participants’ homes-informed by ethnomethodology and conversation analysis-our study documents the methodical practices of VUI users, and how that use is accomplished in the complex social life of the home. Data we present shows how the device is made accountable to and embedded into conversational settings like family dinners where various simultaneous activities are being achieved. We discuss how the VUI is finely coordinated with the sequential organisation of talk. Finally, we locate implications for the accountability of VUI interaction, request and response design, and raise conceptual challenges to the notion of designing ‘conversational’ interfaces.

  • Relevance Estimation with Multiple Information Sources on Search Engine Result Pages

    Relevance estimation is among the most important tasks in the ranking of search results because most search engines follow the Probability Ranking Principle. Current relevance estimation methodologies mainly concentrate on text matching between the query and Web documents, link analysis and user behavior models. However, users judge the relevance of search results directly from Search Engine Result Pages (SERPs), which provide valuable signals for reranking. Morden search engines aggregate heterogeneous information items (such as images, news, and hyperlinks) to a single ranking list on SERPs. The aggregated search results have different visual patterns, textual semantics and presentation structures, and a better strategy should rely on all these information sources to improve ranking performance. In this paper, we propose a novel framework named Joint Relevance Estimation model (JRE), which learns the visual patterns from screenshots of search results, explores the presentation structures from HTML source codes and also adopts the semantic information of textual contents. To evaluate the performance of the proposed model, we construct a large scale practical Search Result Relevance (SRR) dataset which consists of multiple information sources and 4-grade relevance scores of over 60,000 search results. Experimental results show that the proposed JRE model achieves better performance than state-of-the-art ranking solutions as well as the original ranking of commercial search engines.

  • An empirical study on crash recovery bugs in large-scale distributed systems

    In large-scale distributed systems, node crashes are inevitable, and can happen at any time. As such, distributed systems are usually designed to be resilient to these node crashes via various crash recovery mechanisms, such as write-ahead logging in HBase and hinted handoffs in Cassandra. However, faults in crash recovery mechanisms and their implementations can introduce intricate crash recovery bugs, and lead to severe consequences.In this paper, we present CREB, the most comprehensive study on 103 Crash REcovery Bugs from four popular open-source distributed systems, including ZooKeeper, Hadoop MapReduce, Cassandra and HBase. For all the studied bugs, we analyze their root causes, triggering conditions, bug impacts and fixing. Through this study, we obtain many interesting findings that can open up new research directions for combating crash recovery bugs.

  • Delayed Impact of Fair Machine Learning

    Fairness in machine learning has predominantly been studied in static classification settings without concern for how decisions change the underlying population over time. Conventional wisdom suggests that fairness criteria promote the long-term well-being of those groups they aim to protect.
    We study how static fairness criteria interact with temporal indicators of well-being, such as long-term improvement, stagnation, and decline in a variable of interest. We demonstrate that even in a one-step feedback model, common fairness criteria in general do not promote improvement over time, and may in fact cause harm in cases where an unconstrained objective would not.
    We completely characterize the delayed impact of three standard criteria, contrasting the regimes in which these exhibit qualitatively different behavior. In addition, we find that a natural form of measurement error broadens the regime in which fairness criteria perform favorably.
    Our results highlight the importance of measurement and temporal modeling in the evaluation of fairness criteria, suggesting a range of new challenges and trade-offs.

  • Large-Scale Analysis of Framework-Specific Exceptions in Android Apps

    Mobile apps have become ubiquitous. For app developers, it is a key priority to ensure their apps’ correctness and reliability. However, many apps still suffer from occasional to frequent crashes, weakening their competitive edge. Large-scale, deep analyses of the characteristics of real-world app crashes can provide useful insights to guide developers, or help improve testing and analysis tools. However, such studies do not exist — this paper fills this gap. Over a four-month long effort, we have collected 16,245 unique exception traces from 2,486 open-source Android apps, and observed that framework-specific exceptions account for the majority of these crashes. We then extensively investigated the 8,243 framework-specific exceptions (which took six person-months): (1) identifying their characteristics (e.g., manifestation locations, common fault categories), (2) evaluating their manifestation via state-of-the-art bug detection techniques, and (3) reviewing their fixes. Besides the insights they provide, these findings motivate and enable follow-up research on mobile apps, such as bug detection, fault localization and patch generation. In addition, to demonstrate the utility of our findings, we have optimized Stoat, a dynamic testing tool, and implemented ExLocator, an exception localization tool, for Android apps. Stoat is able to quickly uncover three previously-unknown, confirmed/fixed crashes in Gmail and Google+; ExLocator is capable of precisely locating the root causes of identified exceptions in real-world apps. Our substantial dataset is made publicly available to share with and benefit the community.

  • SentiGAN: Generating Sentimental Texts via Mixture Adversarial Networks

    Generating texts of different sentiment labels is getting more and more attention in the area of natural language generation. Recently, Generative Adversarial Net (GAN) has shown promising results in text generation. However, the texts generated by GAN usually suffer from the problems of poor quality, lack of diversity and mode collapse. In this paper, we propose a novel framework – SentiGAN, which has multiple generators and one multi-class discriminator, to address the above problems. In our framework, multiple generators are trained simultaneously, aiming at generating texts of different sentiment labels without supervision. We propose a penalty based objective in the generators to force each of them to generate diversified examples of a specific sentiment label. Moreover, the use of multiple generators and one multi-class discriminator can make each generator focus on generating its own examples of a specific sentiment label accurately. Experimental results on four datasets demonstrate that our model consistently outperforms several state-of-the-art text generation methods in the sentiment accuracy and quality of generated texts.

  • Understanding Ethereum via Graph Analysis

    Being the largest blockchain with the capability of running smart contracts, Ethereum has attracted wide attention and its market capitalization has reached 20 billion USD. Ethereum not only supports its cryptocurrency named Ether but also provides a decentralized platform to execute smart contracts in the Ethereum virtual machine. Although Ether’s price is approaching 200 USD and nearly 600K smart contracts have been deployed to Ethereum, little is known about the characteristics of its users, smart contracts, and the relationships among them. To fill in the gap, in this paper, we conduct the first systematic study on Ethereum by leveraging graph analysis to characterize three major activities on Ethereum, namely money transfer, smart contract creation, and smart contract invocation. We design a new approach to collect all transaction data, construct three graphs from the data to characterize major activities, and discover new observations and insights from these graphs. Moreover, we propose new approaches based on cross-graph analysis to address two security issues in Ethereum. The evaluation through real cases demonstrates the effectiveness of our new approaches.

  • LegoOS: A Disseminated, Distributed OS for Hardware Resource Disaggregation

    The monolithic server model where a server is the unit of deployment, operation, and failure is meeting its limits in the face of several recent hardware and application trends. To improve heterogeneity, elasticity, resource utilization, and failure handling in datacenters, we believe that datacenters should break monolithic servers into disaggregated, network-attached hardware components. Despite the promising benefits of hardware resource disaggregation, no existing OSes or software systems can properly manage it. We propose a new OS model called the splitkernel to manage disaggregated systems. Splitkernel disseminates traditional OS functionalities into loosely-coupled monitors, each of which runs on and manages a hardware component. Using the splitkernel model, we built LegoOS, a new OS designed for hardware resource disaggregation. LegoOS appears to users as a set of distributed servers. Internally, LegoOS cleanly separates processor, memory, and storage devices both at the hardware level and the OS level. We implemented LegoOS from scratch and evaluated it by emulating hardware components using commodity servers. Our evaluation results show that LegoOS’s performance is comparable to monolithic Linux servers, while largely improving resource packing and failure rate over monolithic clusters.

  • Should I Follow the Crowd? A Probabilistic Analysis of the Effectiveness of Popularity in Recommender Systems

    The use of IR methodology in the evaluation of recommender systems has become common practice in recent years. IR metrics have been found however to be strongly biased towards rewarding algorithms that recommend popular items –the same bias that state of the art recommendation algorithms display. Recent research has confirmed and measured such biases, and proposed methods to avoid them. The fundamental question remains open though whether popularity is really a bias we should avoid or not; whether it could be a useful and reliable signal in recommendation, or it may be unfairly rewarded by the experimental biases. We address this question at a formal level by identifying and modeling the conditions that can determine the answer, in terms of dependencies between key random variables, involving item rating, discovery and relevance. We find conditions that guarantee popularity to be effective or quite the opposite, and for the measured metric values to reflect a true effectiveness, or qualitatively deviate from it. We exemplify and confirm the theoretical findings with empirical results. We build a crowdsourced dataset devoid of the usual biases displayed by common publicly available data, in which we illustrate contradictions between the accuracy that would be measured in a common biased offline experimental setting, and the actual accuracy that can be measured with unbiased observations.

  • SuRF: Practical Range Query Filtering with Fast Succinct Tries

    We present the Succinct Range Filter (SuRF), a fast and compact data structure for approximate membership tests. Unlike traditional Bloom filters, SuRF supports both single-key lookups and common range queries: open-range queries, closed-range queries, and range counts. SuRF is based on a new data structure called the Fast Succinct Trie (FST) that matches the point and range query performance of state-of-the-art order-preserving indexes, while consuming only 10 bits per trie node. The false positive rates in SuRF for both point and range queries are tunable to satisfy different application needs. We evaluate SuRF in RocksDB as a replacement for its Bloom filters to reduce I/O by filtering requests before they access on-disk data structures. Our experiments on a 100 GB dataset show that replacing RocksDB’s Bloom filters with SuRFs speeds up open-seek (without upper-bound) and closed-seek (with upper-bound) queries by up to 1.5× and 5× with a modest cost on the worst-case (all-missing) point query throughput due to slightly higher false positive rate.

  • A Constant-Factor Approximation Algorithm for the Asymmetric Traveling Salesman Problem

    We give a constant-factor approximation algorithm for the asymmetric traveling salesman problem. Our approximation guarantee is analyzed with respect to the standard LP relaxation, and thus our result confirms the conjectured constant integrality gap of that relaxation.
    Our techniques build upon the constant-factor approximation algorithm for the special case of node-weighted metrics. Specifically, we give a generic reduction to structured instances that resemble but are more general than those arising from node-weighted metrics. For those instances, we then solve Local-Connectivity ATSP, a problem known to be equivalent (in terms of constant-factor approximation) to the asymmetric traveling salesman problem.

  • Authoring and Verifying Human-Robot Interactions

    As social agents, robots designed for human interaction must adhere to human social norms. How can we enable designers, engineers, and roboticists to design robot behaviors that adhere to human social norms and do not result in interaction breakdowns? In this paper, we use automated formal-verification methods to facilitate the encoding of appropriate social norms into the interaction design of social robots and the detection of breakdowns and norm violations in order to prevent them. We have developed an authoring environment that utilizes these methods to provide developers of social-robot applications with feedback at design time and evaluated the benefits of their use in reducing such breakdowns and violations in human-robot interactions. Our evaluation with application developers (N=9) shows that the use of formal-verification methods increases designers’ ability to identify and contextualize social-norm violations. We discuss the implications of our approach for the future development of tools for effective design of social-robot applications.

  • HighLife: Higher-arity Fact Harvesting

    Text-based knowledge extraction methods for populating knowledge bases have focused on binary facts: relationships between two entities. However, in advanced domains such as health, it is often crucial to consider ternary and higher-arity relations. An example is to capture which drug is used for which disease at which dosage (e.g. 2.5 mg/day) for which kinds of patients (e.g., children vs. adults). In this work, we present an approach to harvest higher-arity facts from textual sources. Our method is distantly supervised by seed facts, and uses the fact-pattern duality principle to gather fact candidates with high recall. For high precision, we devise a constraint-based reasoning method to eliminate false candidates. A major novelty is in coping with the difficulty that higher-arity facts are often expressed only partially in texts and strewn across multiple sources. For example, one sentence may refer to a drug, a disease and a group of patients, whereas another sentence talks about the drug, its dosage and the target group without mentioning the disease. Our methods cope well with such partially observed facts, at both pattern-learning and constraint-reasoning stages. Experiments with health-related documents and with news articles demonstrate the viability of our method.

If you want more, you can visit the Jeff Huang’s list.

Proyecto tipo: Integración PayPal-Telegram

Problema

El cliente requiere una aplicación que integre las APIS de PayPal y Telegram y que sirva como centro de control para un negocio que tiene en marcha.

Integracion-PayPal-Telegram

El cliente tiene un canal «premium» de Telegram en el que los usuarios pagan por estar.

El pago se realiza por PayPal mes a mes y tiene que puntear los pagos con los usuarios para banear a mano a quienes no han pagado.

Actualmente no se avisa al usuario de que no ha pagado.

Requiere una aplicación de Windows que integre Paypal-Telegram de tal modo que se pueda gestionar esto del modo más sencillo posible y que la aplicación sea lo más barata posible.

Concepto

Elaboración de una aplicación para Windows que permita conectar una cuenta de Paypal y un canal de Telegram (integración PayPal-Telegram). Esta, permitirá al operador vincular las cuentas de correo de los pagos recibidos en Paypal, con los usuarios del canal de Telegram, permaneciendo esa asociación guardada para el futuro. Permitirá expulsar a los usuarios del canal que no hayan pagado la cantidad indicada por el operador en el último mes.

Precio

Tarea Opcional Precio
1 Vincular cuenta Paypal No 840,00€
2 Obtener cobros último mes Paypal No 420,00€
3 Vincular cuenta Telegram No 840,00€
4 Obtener miembros canal telegram No 420,00€
5 Ventana para asociar miembros canal con mails paypal No 420,00€
6 BBDD para guardar asociaciones No 210,00€
7 Permitir banear a todos los que no hayan pagado en el último mes No 210,00€
8 Permitir readmitir a un usuario concreto 210,00€
9 Permitir mandar un correo de aviso de baneo a todos los que no hayan pagado en el último mes 420,00€
10 Tests de integración No 420,00€
11 Hacer un instalador 105,00€
12 Ventana de ayuda 52,50€
13 Mandar un mensaje con foto al canal de Telegram 420,00€
14 Recibir cobros por Telegram 840,00€
Total no opcionales 3.780,00€

Tiempos

El proyecto tiene una estimación de tiempo de entrega de 2 (dos) meses, desde la fecha de inicio de los trabajos.

Nota aclaratoria:

Este proyecto tipo, es un ejemplo de proyecto que se ha realizado o se podría realizar. En ningún caso tiene validez como presupuesto real y sólo pretende documentar las distintas posibilidades que existen.

Actualmente, con los cambios que ha habido en cuanto a las posibilidades existentes, la propuesta habría sido distinta.

Se han omitido nombres de empresas y productos.

Por favor, si tuviese necesidad de algo similar, no dude en ponerse en contacto.