Hola mario2000 y gracias otra vez.
He estado viendo las opciones de usuario. Con "Quiero ver!" y "Favoritos" de momento podría valer siempre que podamos crear lista de de ambos o poder marcarlo en la lista de las fichas sin tener que entrar el la página de enlaces. No he mirado esto aún. El tema de añadir/borrar creo que se podrá hacer con /lists/add|remove
En referencia a las urls, personalmente los canales de pelisalacarta los prefiero lo más simple posible, como el enlace que has puesto de /plugins/peliculas.php; poster, título+idioma y enlace. Para mi sería lo ideal pero a la mayoría le gusta con más datos. La url a la que refería entrega bastante info con la pueden trabajar en esa línea.
En un caso normal y sin interversión, cosa que te agradecemos todos

, mi respuesta hubiese sido algo así
Código: Seleccionar todo
# -*- coding: utf-8 -*-
#------------------------------------------------------------
# pelisalacarta - XBMC Plugin
# Canal para pepecine
# http://blog.tvalacarta.info/plugin-xbmc/pelisalacarta/
#------------------------------------------------------------
import urlparse,urllib2,urllib,re
import os, sys
from core import logger
from core import config
from core import scrapertools
from core import jsontools
from core.item import Item
from servers import servertools
__channel__ = "pepecine"
__category__ = "F,S"
__type__ = "generic"
__title__ = "Pepecine"
__language__ = "ES"
host = "http://pepecine.com"
def isGeneric():
return True
def mainlist(item):
logger.info("[pepecine.py] mainlist")
itemlist = []
itemlist.append( Item( channel=__channel__, action="fichas", title="Películas", url=urlparse.urljoin(host,"peliculas-online"), extra="movie" ) )
itemlist.append( Item( channel=__channel__, action="fichas", title="Series", url=urlparse.urljoin(host,"series-online"), extra="series" ) )
return itemlist
def fichas(item):
logger.info("[pepecine.py] fichas")
itemlist = []
token = scrapertools.get_match(
scrapertools.cache_page(item.url),
"token: '([^']+)'"
)
path = "/titles/paginate?_token=%s&perPage=20&page=1&order=mc_num_of_votesDesc&type=%s&minRating=&maxRating=" % (token, item.extra)
data_dict = jsontools.load_json(
scrapertools.cache_page(urlparse.urljoin(host,path))
)
print "##### " + item.title + " ###"
print data_dict
print "#####"
return itemlist
Si nada cambia, tendría opciones de bastantes cosas