He estado fuera (pequeña vacaciones de 7 días) lo puse en un post anterior en este hilo.zanzibar1982 escribió:was able to fix all the issues. Has anybody seen robalo?
He leido algo con el movil en los tiempos de espera en las compras de mi jefa

Mensaje por robalo » 22 Ago 2015, 23:03
He estado fuera (pequeña vacaciones de 7 días) lo puse en un post anterior en este hilo.zanzibar1982 escribió:was able to fix all the issues. Has anybody seen robalo?
Mensaje por zanzibar1982 » 23 Ago 2015, 00:55
Mensaje por jesus » 23 Ago 2015, 08:27
Sí, yo ya tengo habilidad en empujar el carro con una mano y leer con la otrarobalo escribió:He estado fuera (pequeña vacaciones de 7 días) lo puse en un post anterior en este hilo.zanzibar1982 escribió:was able to fix all the issues. Has anybody seen robalo?
He leido algo con el movil en los tiempos de espera en las compras de mi jefaAún me queda mucho que leer además de probar la nueva versión con skin y normal.
Mensaje por robalo » 24 Ago 2015, 12:08
jesus escribió:Sí, yo ya tengo habilidad en empujar el carro con una mano y leer con la otra
Código: Seleccionar todo
.itafilm.tv TRUE / FALSE PHPSESSID scvsv63.....
Mensaje por robalo » 24 Ago 2015, 23:14
Código: Seleccionar todo
def peliculas(item):
logger.info("pelisalacarta.itastreaming peliculas")
itemlist = []
# Descarga la pagina
data = anti_cloudflare(item.url)
## ------------------------------------------------
cookies = ""
matches = re.compile( '(.itastreaming.co.*?)\n', re.DOTALL ).findall( config.get_cookie_data() )
for cookie in matches:
name = cookie.split( '\t' )[5]
value = cookie.split( '\t' )[6]
cookies+= name + "=" + value + ";"
headers.append( ['Cookie',cookies[:-1]] )
import urllib
_headers = urllib.urlencode( dict( headers ) )
## ------------------------------------------------
# Extrae las entradas (carpetas)
patron = '<div class="item">\s*<a href="([^"]+)" title="([^"]+)">\s*<div class="img">\s*<img src="([^"]+)"'
matches = re.compile(patron, re.DOTALL).findall(data)
scrapertools.printMatches(matches)
for scrapedurl, scrapedtitle, scrapedthumbnail in matches:
scrapedtitle = scrapertools.decodeHtmlentities(scrapedtitle)
html = scrapertools.cache_page(scrapedurl, headers=headers)
start = html.find('<div class="post-content">')
end = html.find('</div>', start)
scrapedplot = html[start:end]
scrapedplot = re.sub(r'<[^>]*>', '', scrapedplot)
if DEBUG: logger.info(
"title=[" + scrapedtitle + "], url=[" + scrapedurl + "], thumbnail=[" + scrapedthumbnail + "]")
## ------------------------------------------------
scrapedthumbnail+= "|" + _headers
## ------------------------------------------------
itemlist.append(
Item(channel=__channel__,
action="findvid",
title="[COLOR azure]" + scrapedtitle + "[/COLOR]",
url=scrapedurl,
viewmode="movie_with_plot",
thumbnail=scrapedthumbnail,
plot=scrapedplot,
folder=True))
# Extrae el paginador
patronvideos = "class=previouspostslink' href='([^']+)'>Seguente ›"
matches = re.compile(patronvideos, re.DOTALL).findall(data)
scrapertools.printMatches(matches)
if len(matches) > 0:
scrapedurl = urlparse.urljoin(item.url, matches[0])
itemlist.append(
Item(channel=__channel__,
action="peliculas",
title="[COLOR orange]Successivo >>[/COLOR]",
url=scrapedurl,
thumbnail="http://2.bp.blogspot.com/-fE9tzwmjaeQ/UcM2apxDtjI/AAAAAAAAeeg/WKSGM2TADLM/s1600/pager+old.png",
folder=True))
return itemlist
Mensaje por zanzibar1982 » 25 Ago 2015, 00:07
robalo escribió:Pues parece que también es válido para los thumbnail
función peliculas del archivo itastreaming.py del repositorio de DrZ3r0 https://github.com/Dr-Zer0/pelisalacart ... reaming.pyCódigo: Seleccionar todo
def peliculas(item): logger.info("pelisalacarta.itastreaming peliculas") itemlist = [] # Descarga la pagina data = anti_cloudflare(item.url) ## ------------------------------------------------ cookies = "" matches = re.compile( '(.itastreaming.co.*?)\n', re.DOTALL ).findall( config.get_cookie_data() ) for cookie in matches: name = cookie.split( '\t' )[5] value = cookie.split( '\t' )[6] cookies+= name + "=" + value + ";" headers.append( ['Cookie',cookies[:-1]] ) import urllib _headers = urllib.urlencode( dict( headers ) ) ## ------------------------------------------------ # Extrae las entradas (carpetas) patron = '<div class="item">\s*<a href="([^"]+)" title="([^"]+)">\s*<div class="img">\s*<img src="([^"]+)"' matches = re.compile(patron, re.DOTALL).findall(data) scrapertools.printMatches(matches) for scrapedurl, scrapedtitle, scrapedthumbnail in matches: scrapedtitle = scrapertools.decodeHtmlentities(scrapedtitle) html = scrapertools.cache_page(scrapedurl, headers=headers) start = html.find('<div class="post-content">') end = html.find('</div>', start) scrapedplot = html[start:end] scrapedplot = re.sub(r'<[^>]*>', '', scrapedplot) if DEBUG: logger.info( "title=[" + scrapedtitle + "], url=[" + scrapedurl + "], thumbnail=[" + scrapedthumbnail + "]") ## ------------------------------------------------ scrapedthumbnail+= "|" + _headers ## ------------------------------------------------ itemlist.append( Item(channel=__channel__, action="findvid", title="[COLOR azure]" + scrapedtitle + "[/COLOR]", url=scrapedurl, viewmode="movie_with_plot", thumbnail=scrapedthumbnail, plot=scrapedplot, folder=True)) # Extrae el paginador patronvideos = "class=previouspostslink' href='([^']+)'>Seguente ›" matches = re.compile(patronvideos, re.DOTALL).findall(data) scrapertools.printMatches(matches) if len(matches) > 0: scrapedurl = urlparse.urljoin(item.url, matches[0]) itemlist.append( Item(channel=__channel__, action="peliculas", title="[COLOR orange]Successivo >>[/COLOR]", url=scrapedurl, thumbnail="http://2.bp.blogspot.com/-fE9tzwmjaeQ/UcM2apxDtjI/AAAAAAAAeeg/WKSGM2TADLM/s1600/pager+old.png", folder=True)) return itemlist
Código: Seleccionar todo
# -*- coding: utf-8 -*-
#------------------------------------------------------------
# pelisalacarta - XBMC Plugin
# Canale per itafilmtv
# http://blog.tvalacarta.info/plugin-xbmc/pelisalacarta/
# Info tradotte per aiutare chi volesse cimentarsi
#------------------------------------------------------------
# Si definiscono le librerie che si useranno per far funzionare il canale
import urlparse,urllib2,urllib,re
import os, sys
from core import scrapertools
from core import logger
from core import config
from core.item import Item
from servers import servertools
# Informazioni sul canale
__channel__ = "itafilmtv"
__category__ = "F,S"
__type__ = "generic"
__title__ = "ITA Film TV"
__language__ = "IT"
# Si definisce la pagina principale del sito su cui si lavora
host = "http://www.itafilm.tv"
# Si definiscono gli headers, richiesti da alcuni siti per accedervi
headers = [
['Host','www.itafilm.tv'],
['User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64; rv:39.0) Gecko/20100101 Firefox/39.0'],
['Accept-Encoding','gzip, deflate'],
['Cookie','_ddn_intercept_2_=b33473ad0b70b320a9f7546e213a396a']
]
def isGeneric():
return True
# Struttura del menù principale del canale
def mainlist( item ):
logger.info( "[itafilmtv.py] mainlist" )
itemlist = []
itemlist.append( Item( channel=__channel__, action="film", title="[COLOR azure]Home[/COLOR]", url=host ) )
itemlist.append( Item( channel=__channel__, action="genere", title="[COLOR azure]Film Per Genere[/COLOR]", url=host ) )
itemlist.append( Item( channel=__channel__, action="serietv", title="[COLOR azure]Serie TV[/COLOR]", url="http://www.itafilm.tv/telefilm-serie-tv-streaming/" ) )
itemlist.append( Item( channel=__channel__, action="search", title="[COLOR orange]Cerca...[/COLOR]", url=host ) )
return itemlist
# Chiamando una funzione "search", il launcher chiede un testo da inserire e lo agiunge come parametro
def search( item, texto ):
logger.info( "[itafilmtv.py] " + item.url + " search " + texto )
item.url = "http://www.itafilm.tv/index.php?story="+texto+"&do=search&subaction=search"
try:
return film( item )
# Si aggiunge una eccezione, per non interrompere la ricerca globale se un canale fallisce per qualche motivo
except:
import sys
for line in sys.exc_info():
logger.error( "%s" % line )
return []
def film( item ):
logger.info( "[itafilmtv.py] mainlist" )
itemlist = []
# Scarica l'HTML della pagina
data = scrapertools.cache_page( item.url, headers=headers )
# Ne estrae i dati
patron = '<div class="main-news">.*?'
patron += '<div class="main-news-image"[^<]+'
patron += '<a href="([^"]+)">'
patron += '<img src="([^"]+)" '
patron += 'alt="([^"]+)"'
matches = re.compile( patron, re.DOTALL ).findall( data )
# Si definiscono i "matches" individuati nei patron, rispettivamente:
for scrapedurl, scrapedthumbnail, scrapedtitle in matches:
scrapedtitle = scrapertools.decodeHtmlentities( scrapedtitle )
itemlist.append( Item( channel=__channel__, action="trova_video" , title=scrapedtitle, url=scrapedurl, thumbnail=urlparse.urljoin( host, scrapedthumbnail ), fulltitle=scrapedtitle, show=scrapedtitle ) )
# Si individua l'url per indirizzare alla pagina successiva
next_page = scrapertools.find_single_match( data, '<span>\d+</span> <a href="([^"]+)">' )
if next_page != "":
itemlist.append( Item( channel=__channel__, action="film" , title="[COLOR orange]Successivo >>>[/COLOR]" , url=next_page ) )
return itemlist
def genere(item):
logger.info("[itafilmtv.py] genere")
itemlist = []
data = scrapertools.cachePage(item.url, headers=headers )
logger.info("data="+data)
data = scrapertools.find_single_match(data,'<div class="menu2">(.*?)<div class="left-wrap">')
logger.info("data="+data)
patron = '<a href="(.*?)">(.*?)</a>'
matches = re.compile(patron,re.DOTALL).findall(data)
scrapertools.printMatches(matches)
for scrapedurl,scrapedtitle in matches:
itemlist.append( Item(channel=__channel__, action="film", title="[COLOR azure]"+scrapedtitle+"[/COLOR]", url=host+scrapedurl, folder=True))
return itemlist
def serietv( item ):
logger.info( "[itafilmtv.py] mainlist" )
itemlist = []
# Scarica l'HTML della pagina
data = scrapertools.cache_page( item.url, headers=headers )
# Ne estrae i dati
patron = '<div class="main-news">.*?'
patron += '<div class="main-news-image"[^<]+'
patron += '<a href="([^"]+)">'
patron += '<img src="([^"]+)" '
patron += 'alt="([^"]+)"'
matches = re.compile( patron, re.DOTALL ).findall( data )
# Si definiscono i "matches" individuati nei patron, rispettivamente:
for scrapedurl, scrapedthumbnail, scrapedtitle in matches:
scrapedtitle = scrapertools.decodeHtmlentities( scrapedtitle )
itemlist.append( Item( channel=__channel__, action="trova_ep_serie" , title=scrapedtitle, url=scrapedurl, thumbnail=urlparse.urljoin( host, scrapedthumbnail ), fulltitle=scrapedtitle, show=scrapedtitle ) )
# Si individua l'url per indirizzare il canale alla pagina successiva del sito
next_page = scrapertools.find_single_match( data, '<span>\d+</span> <a href="([^"]+)">' )
if next_page != "":
itemlist.append( Item( channel=__channel__, action="film" , title="[COLOR orange]Successivo >>>[/COLOR]" , url=next_page ) )
return itemlist
def trova_video( item ):
logger.info( "[itafilmtv.py] findvideos" )
itemlist = []
data = scrapertools.cache_page( item.url, headers=headers )
sources = scrapertools.get_match( data, '(<noindex> <div class="video-player-plugin">.*?</noindex>)')
patron = 'src="([^"]+)"'
matches = re.compile( patron, re.DOTALL ).findall( sources )
for scrapedurl in matches:
server = scrapedurl.split( '/' )[2].split( '.' )
if len(server) == 3: server = server[1]
else: server = server[0]
title = "[" + server + "] " + item.fulltitle
itemlist.append( Item( channel=__channel__, action="play" , title=title, url=scrapedurl, thumbnail=item.thumbnail, fulltitle=item.fulltitle, show=item.show, folder=False ) )
return itemlist
def trova_ep_serie(item):
logger.info("[itafilmtv.py] trova_ep_serie")
itemlist = []
## Descarga la página
data = scrapertools.cache_page(item.url)
data = scrapertools.decodeHtmlentities(data)
patron1 = '<!--colorstart:#009900--><span style="color:#009900">(.+?)<div style="clear: both;height: 1px;"></div>'
matches1 = re.compile(patron1, re.DOTALL).findall(data)
for match1 in matches1:
for data in match1.split('<br/>'):
## Extrae las entradas
scrapedtitle = data.split('<a ')[0]
scrapedtitle = re.sub(r'<[^>]*>', '', scrapedtitle)
li = servertools.find_video_items(data=data)
for videoitem in li:
videoitem.title = scrapedtitle + videoitem.title
videoitem.fulltitle = item.fulltitle
videoitem.thumbnail = item.thumbnail
videoitem.show = item.show
videoitem.plot = item.plot
videoitem.channel = __channel__
itemlist.extend(li)
return itemlist
def play( item ):
logger.info( "[itafilmtv.py] play" )
## Serve soltanto l'url
data = item.url
itemlist = servertools.find_video_items( data=data )
for videoitem in itemlist:
videoitem.title = item.show
videoitem.fulltitle = item.fulltitle
videoitem.thumbnail = item.thumbnail
videoitem.channel = __channel__
return itemlist
Mensaje por DrZ3r0 » 25 Ago 2015, 14:27
Mensaje por robalo » 25 Ago 2015, 19:39
Código: Seleccionar todo
# -*- coding: utf-8 -*-
#------------------------------------------------------------
# pelisalacarta - XBMC Plugin
# Canal para itafilmtv
# http://blog.tvalacarta.info/plugin-xbmc/pelisalacarta/
#------------------------------------------------------------
import urlparse,urllib2,urllib,re
import os, sys
from core import scrapertools
from core import logger
from core import config
from core.item import Item
from servers import servertools
__channel__ = "itafilmtv"
__category__ = "F,S"
__type__ = "generic"
__title__ = "ITA Film TV"
__language__ = "IT"
host = "http://www.itafilm.tv"
headers = [
['Host','www.itafilm.tv'],
['User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64; rv:39.0) Gecko/20100101 Firefox/39.0'],
['Accept-Encoding','gzip, deflate'],
['Cookie','_ddn_intercept_2_=b33473ad0b70b320a9f7546e213a396a']
]
def isGeneric():
return True
def mainlist( item ):
logger.info( "[itafilmtv.py] mainlist" )
itemlist = []
itemlist.append( Item( channel=__channel__, action="fichas", title="Home", url=host ) )
itemlist.append( Item( channel=__channel__, action="fichas", title="Serie TV", url=host + "/telefilm-serie-tv-streaming/" ) )
itemlist.append( Item( channel=__channel__, action="search", title="Buscar...", url=host ) )
return itemlist
## Al llamarse "search" la función, el launcher pide un texto a buscar y lo añade como parámetro
def search( item, texto ):
logger.info( "[itafilmtv.py] " + item.url + " search " + texto )
item.url+= "/?do=search&subaction=search&story=" + texto
try:
return fichas( item )
## Se captura la excepción, para no interrumpir al buscador global si un canal falla
except:
import sys
for line in sys.exc_info():
logger.error( "%s" % line )
return []
def fichas( item ):
logger.info( "[itafilmtv.py] fichas" )
itemlist = []
## Descarga la página
data = scrapertools.cache_page( item.url, headers=headers )
action = "_findvideos"
if "serie-tv" in item.url: action = "episodios"
## Extrae las datos
patron = '<div class="main-news">.*?'
patron+= '<div class="main-news-image"[^<]+'
patron += '<a href="([^"]+)">'
patron += '<img src="([^"]+)" '
patron += 'alt="([^"]+)"'
matches = re.compile( patron, re.DOTALL ).findall( data )
for scrapedurl, scrapedthumbnail, scrapedtitle in matches:
scrapedtitle = scrapertools.decodeHtmlentities( scrapedtitle )
itemlist.append( Item( channel=__channel__, action=action, title=scrapedtitle, url=scrapedurl, thumbnail=urlparse.urljoin( host, scrapedthumbnail ), fulltitle=scrapedtitle, show=scrapedtitle ) )
## Paginación
next_page = scrapertools.find_single_match( data, '<span>\d+</span> <a href="([^"]+)">' )
if next_page != "":
itemlist.append( Item( channel=__channel__, action="fichas" , title=">> Página siguiente" , url=next_page ) )
return itemlist
def episodios( item ):
logger.info( "[itafilmtv.py] episodios" )
itemlist = []
## Descarga la página
data = scrapertools.cache_page( item.url, headers=headers )
plot = scrapertools.htmlclean(
scrapertools.get_match( data, '<div class="main-news-text main-news-text2">(.*?)</div>' )
).strip()
## Extrae las datos
patron = '<br />(\d+x\d+).*?href="//ads.ad-center.com/[^<]+</a>(.*?)<a href="//ads.ad-center.com/[^<]+</a>'
matches = re.compile( patron, re.DOTALL ).findall( data )
for scrapedepisode, scrapedurls in matches:
title = scrapedepisode + " - " + item.show
scrapedurls = scrapedurls.replace( "playreplay", "moevideo" )
matches_urls = re.compile( 'href="([^"]+)"', re.DOTALL ).findall( scrapedurls )
urls = ""
for url in matches_urls:
urls+= url + "|"
itemlist.append( Item( channel=__channel__, action="findvideos", title=title, url=urls[:-1], thumbnail=item.thumbnail, plot=plot, fulltitle=item.fulltitle, show=item.show ) )
return itemlist
def findvideos( item ):
logger.info( "[itafilmtv.py] findvideos" )
itemlist = []
## Extrae las datos
if "|" not in item.url:
## Descarga la página
data = scrapertools.cache_page( item.url, headers=headers )
sources = scrapertools.get_match( data, '(<noindex> <div class="video-player-plugin">.*?</noindex>)')
patron = 'src="([^"]+)"'
matches = re.compile( patron, re.DOTALL ).findall( sources )
else:
matches = item.url.split( '|' )
for scrapedurl in matches:
server = scrapedurl.split( '/' )[2].split( '.' )
if len(server) == 3: server = server[1]
else: server = server[0]
title = "[" + server + "] " + item.fulltitle
itemlist.append( Item( channel=__channel__, action="play" , title=title, url=scrapedurl, thumbnail=item.thumbnail, fulltitle=item.fulltitle, show=item.show, folder=False ) )
return itemlist
def play( item ):
logger.info( "[itafilmtv.py] play" )
## Sólo es necesario la url
data = item.url
itemlist = servertools.find_video_items( data=data )
for videoitem in itemlist:
videoitem.title = item.show
videoitem.fulltitle = item.fulltitle
videoitem.thumbnail = item.thumbnail
videoitem.channel = __channel__
return itemlist
Mensaje por zanzibar1982 » 26 Ago 2015, 02:39
TY robalo,@zanzibar:
Te paso algo funcional con lo que, quizás, te marque una línea de trabajo.
'itafilm.tv' tiene separados los enlaces a los servidores audio italiano y los subtitulado. Tienes un ejemplo en la serie 'Scorpion': 1x01:1x22->sub ITA, 1x01:1x13->ITA. Tendrás que ver si te merece la pena arreglarlo para que muestren 'sub ITA' o 'ITA'.
Mensaje por robalo » 26 Ago 2015, 08:15
Código: Seleccionar todo
def episodios( item ):
logger.info( "[itafilmtv.py] episodios" )
itemlist = []
## Descarga la página
data = scrapertools.cache_page( item.url, headers=headers )
plot = scrapertools.htmlclean(
scrapertools.get_match( data, '<div class="main-news-text main-news-text2">(.*?)</div>' )
).strip()
## Extrae las datos - Episodios
patron = '<br />(\d+x\d+).*?href="//ads.ad-center.com/[^<]+</a>(.*?)<a href="//ads.ad-center.com/[^<]+</a>'
matches = re.compile( patron, re.DOTALL ).findall( data )
## Extrae las datos - sub ITA/ITA
patron = '<b>.*?STAGIONE.*?(sub|ITA).*?</b>'
lang = re.compile( patron, re.IGNORECASE ).findall( data )
lang_index = 0
for scrapedepisode, scrapedurls in matches:
if int( scrapertools.get_match( scrapedepisode, '\d+x(\d+)' ) ) == 1:
lang_title = lang[lang_index]
if lang_title.lower() == "sub": lang_title+= " ITA"
lang_index+= 1
title = scrapedepisode + " - " + item.show + " (" + lang_title + ")"
scrapedurls = scrapedurls.replace( "playreplay", "moevideo" )
matches_urls = re.compile( 'href="([^"]+)"', re.DOTALL ).findall( scrapedurls )
urls = ""
for url in matches_urls:
urls+= url + "|"
if urls != "":
itemlist.append( Item( channel=__channel__, action="findvideos", title=title, url=urls[:-1], thumbnail=item.thumbnail, plot=plot, fulltitle=item.fulltitle, show=item.show ) )
return itemlist
Volver a “Preguntas (cómo se hace...)”
Este es el foro oficial de soporte para pelisalacarta, tvalacarta y mywebtv.
También es un lugar para compartir tus experiencias con dispositivos multimedia y software media center, puede que encuentres algo interesante que ni siquiera sabías que se podía hacer.
Si estás empezando con Kodi, o si estás interesado en sacarle más partido, puedes echar un vistazo a esta colección de video-tutoriales.
Aprenderás a crear y optimizar tu biblioteca, a instalar add-ons, a buscar subtítulos...
Si tienes un problema en alguno de los plugins y quieres reportarlo, no olvides incluir el log.
Para que resulte útil tienes que activar la opción de "log completo" en el plugin, luego reiniciar Kodi y dar los pasos necesarios hasta que se produzca el problema.
Luego copia tu fichero de log, siguiendo las instrucciones que se describen en este enlace, e inclúyelo al final de la descripción de tu problema.
Si sabes programar, esta serie de tutoriales que describen paso a paso cómo desarrollar tu propio add-on para Kodi.
Y si quieres añadir tus propios canales a pelisalacarta también te contamos paso a paso cómo hacerlo en este enlace.
Usuarios navegando por este Foro: No hay usuarios registrados visitando el Foro y 14 invitados