Идёт процесс отладки!
P.S3. Поиск опять сломался: очень уж он нежный. Переделывал файлы и даже поиск локального сайта перестал искать. Пришлось всё начинать с Нуля. Закачал тему Elegant 1.3 (за ~~1913~~ 2013 год). И, настроив поиск, обновился до версии 5.3.
Локально работает очень хорошо. А на сервере опять кочевряжется. Какой-то кэш мешает. Надо разбираться…
Демо-поиск
P.S4. Сделал демо-поиск на отдельной страничке (404). Пока им можно пользоваться: он работает!
Поиск работает!
Основной Поиск в верхнем меню работает штатно (русский + english)
Наконец-то сделал поиск по сайту на русском языке. Сайт создан на Pelican.
Если коротко, то взял Поиск с версии 1.3, потом добавил всё остальное. Возможно, придётся поменять некоторые скрипты в папке tipuesearch
Желающие разобраться могут посмотреть файлы в репозитории (ветка gh-pages)
P.S. Впрочем, нет основных файлов в репозитории. Вот так и я по крупицам собирал в Интернете информацию.
Теперь сайт работоспособный — подумаю об обратной связи: попробую сделать комментарии. Возможно, что и перееду на свой поддомен: как дело пойдёт…
P.S2. Необходимо вдогонку отметить, что и сам плагин tipue_search должен быть старым, чтоб генерил в формате JSON <== это важно!)
Чтобы два раза не вставать, вот код файла blog-plugins\pelican-plugins\tipue_search\tipue_search.py
# -*- coding: utf-8 -*-
"""
Tipue Search
============
A Pelican plugin to serialize generated HTML to JSON
that can be used by jQuery plugin - Tipue Search.
Copyright (c) Talha Mansoor
"""
from __future__ import unicode_literals
import os.path
import json
from bs4 import BeautifulSoup
from codecs import open
try:
from urlparse import urljoin
except ImportError:
from urllib.parse import urljoin
from pelican import signals
class Tipue_Search_JSON_Generator(object):
def __init__(self, context, settings, path, theme, output_path, *null):
self.output_path = output_path
self.context = context
self.siteurl = settings.get('SITEURL')
self.tpages = settings.get('TEMPLATE_PAGES')
self.output_path = output_path
self.json_nodes = []
def create_json_node(self, page):
if getattr(page, 'status', 'published') != 'published':
return
soup_title = BeautifulSoup(page.title.replace(' ', ' '), 'html.parser')
page_title = soup_title.get_text(' ', strip=True).replace('“', '"').replace('”', '"').replace('’', "'").replace('^', '^')
soup_text = BeautifulSoup(page.content, 'html.parser')
page_text = soup_text.get_text(' ', strip=True).replace('“', '"').replace('”', '"').replace('’', "'").replace('¶', ' ').replace('^', '^')
page_text = ' '.join(page_text.split())
if getattr(page, 'category', 'None') == 'None':
page_category = ''
else:
page_category = page.category.name
page_url = self.siteurl + '/' + page.url
node = {'title': page_title,
'text': page_text,
'tags': page_category,
'url': page_url,
'loc': page_url} # changed from 'url' following http://blog.siphos.be/2015/08/updates-on-my-pelican-adventure/ (an update to Pelican made it not work, because the update (e.g., in the theme folder, static/tipuesearch/tipuesearch.js is looking for the 'loc' attribute.
self.json_nodes.append(node)
def create_tpage_node(self, srclink):
srcfile = open(os.path.join(self.output_path, self.tpages[srclink]), encoding='utf-8')
soup = BeautifulSoup(srcfile, 'html.parser')
page_text = soup.get_text()
# What happens if there is not a title.
if soup.title is not None:
page_title = soup.title.string
else:
page_title = ''
# Should set default category?
page_category = ''
page_url = urljoin(self.siteurl, self.tpages[srclink])
node = {'title': page_title,
'text': page_text,
'tags': page_category,
'url': page_url,
'loc': page_url} # changed from 'url' following http://blog.siphos.be/2015/08/updates-on-my-pelican-adventure/ (an update to Pelican made it not work, because the update (e.g., in the theme folder, static/tipuesearch/tipuesearch.js is looking for the 'loc' attribute. - commit 2dcdca8c8d
self.json_nodes.append(node)
def generate_output(self, writer):
path = os.path.join(self.output_path, 'tipuesearch_content.json')
pages = self.context['pages'] + self.context['articles']
for article in self.context['articles']:
pages += article.translations
for srclink in self.tpages:
self.create_tpage_node(srclink)
for page in pages:
self.create_json_node(page)
root_node = {'pages': self.json_nodes}
with open(path, 'w', encoding='utf-8') as fd:
json.dump(root_node, fd, separators=(',', ':'), ensure_ascii=False)
def get_generators(generators):
return Tipue_Search_JSON_Generator
def register():
signals.get_generators.connect(get_generators)
Комментарии
Оставьте свои комментарии