Tokenize не работает с любым строковым вводом

56
6

Я ранее опубликовал строку, которую я извлекаю из ссылки, для которой я хочу применить tokenize, без везения. Итак, попробовал упрощенный пример: моя командная строка очень проста:

a="Any Random text at all , nothing freaking works"
sentences = nltk.sent_tokenize(a)

Я постоянно получаю:

TypeError: Can't convert 'list' object to str implicitly

Я попробовал str.(a) a.split str.(a), a.split, a=a[0] и проверил:

>>> type(a)
<class 'str'>

что-то не так с моим Python? Я проверил примеры, и это, видимо, должно работать. Был бы очень признателен, если бы кто-то мог запустить и посмотреть, получают ли они результаты, и если да, то что может быть не так с моим Python

Added image of error

спросил(а) 2017-08-16T13:27:00+03:00 2 года, 11 месяцев назад
1
Решение
55

Это проблема в самом пакете nltk. Как и на картинке, это не параметр, переданный, а буквальный [''] в nltk/data.py который считается списком и преобразованием в строку.

Может потребоваться переустановка пакета nltk?

показать 69-ю строку nltk/data.py она должна быть path = []

ответил(а) 2017-08-16T14:06:00+03:00 2 года, 11 месяцев назад
Ваш ответ
Введите минимум 50 символов
Чтобы , пожалуйста,
Выберите тему жалобы:

Другая проблема