import pickle import numpy as np import tensorflow as tf from keras.src.legacy.preprocessing.text import Tokenizer from keras.src.utils import pad_sequences # Загрузка модели model = tf.keras.models.load_model('best_model_lstm_negative.keras') # Загрузка токенизатора with open('tokenizer_lstm_lstm_negative.pickle', 'rb') as handle: tokenizer = pickle.load(handle) def preprocess_text(text: str): # Токенизация текста sequences = tokenizer.texts_to_sequences([text]) # Преобразование последовательностей в фиксированной длины padded_sequences = pad_sequences(sequences, maxlen=90) # 90 - длина последовательности, используемая при обучении return padded_sequences def predict_answer(question: str) -> str: # Предобработка вопроса print("Вопрос:", question) input_data = preprocess_text(question) print("Предобработанные данные:", input_data) # Предсказание prediction = model.predict(input_data) print("Предсказание:", prediction) # Преобразование предсказания в строку для сохранения prediction_str = np.array2string(prediction[0], separator=',') print("Строковое представление предсказания:", prediction_str) return prediction_str # Возвращаем строковое представление предсказания