Список функций и объектов в Simulink® Test™ программного интерфейса см. Раздел «Тестовые скрипты».
В этом примере показано, как использовать sltest.testmanager
функции, классы и методы для автоматизации тестов и генерации отчетов. Можно создать контрольный пример, отредактировать критерии контрольного примера, запустить контрольный пример, экспортировать выходные данные симуляции и сгенерировать отчеты о результатах программно. Пример сравнивает выходы симуляции модели с базовой линией.
% Create the test file, test suite, and test case structure tf = sltest.testmanager.TestFile('API Test File'); ts = createTestSuite(tf,'API Test Suite'); tc = createTestCase(ts,'baseline','Baseline API Test Case'); % Remove the default test suite tsDel = getTestSuiteByName(tf,'New Test Suite 1'); remove(tsDel); % Assign the system under test to the test case setProperty(tc,'Model','sldemo_absbrake'); % Capture the baseline criteria baseline = captureBaselineCriteria(tc,'baseline_API.mat',true); % Test a new model parameter by overriding it in the test case % parameter set ps = addParameterSet(tc,'Name','API Parameter Set'); po = addParameterOverride(ps,'m',55); % Set the baseline criteria tolerance for one signal sc = getSignalCriteria(baseline); sc(1).AbsTol = 9; % Run the test case and return an object with results data ResultsObj = run(tc); % Get the test case result and the Sim Output run dataset tcr = getTestCaseResults(ResultsObj); runDataset = getOutputRuns(tcr); % Open the Test Manager so you can view the simulation % output and comparison data sltest.testmanager.view; % Generate a report from the results data filePath = 'test_report.pdf'; sltest.testmanager.report(ResultsObj,filePath,... 'Author','Test Engineer',... 'IncludeSimulationSignalPlots',true,... 'IncludeComparisonSignalPlots',true); % Export the Sim Output run dataset dataset = export(runDataset);
Сбой теста, потому что только одно сравнение сигналов между выходом симуляции и критериями базовой линии находится в пределах допуска. Отчет о результатах является PDF и открывается после его завершения. Для получения дополнительной информации о настройках генерации отчетов см. sltest.testmanager.report
страница с описанием функции.
Этот пример сравнивает данные сигнала между двумя симуляциями, чтобы проверить на эквивалентность.
% Create the test file, test suite, and test case structure tf = sltest.testmanager.TestFile('API Test File'); ts = createTestSuite(tf,'API Test Suite'); tc = createTestCase(ts,'equivalence','Equivalence Test Case'); % Remove the default test suite tsDel = getTestSuiteByName(tf,'New Test Suite 1'); remove(tsDel); % Assign the system under test to the test case % for Simulation 1 and Simulation 2 setProperty(tc,'Model','sldemo_absbrake','SimulationIndex',1); setProperty(tc,'Model','sldemo_absbrake','SimulationIndex',2); % Add a parameter override to Simulation 1 and 2 ps1 = addParameterSet(tc,'Name','Parameter Set 1','SimulationIndex',1); po1 = addParameterOverride(ps1,'Rr',1.20); ps2 = addParameterSet(tc,'Name','Parameter Set 2','SimulationIndex',2); po2 = addParameterOverride(ps2,'Rr',1.24); % Capture equivalence criteria eq = captureEquivalenceCriteria(tc); % Set the equivalence criteria tolerance for one signal sc = getSignalCriteria(eq); sc(1).AbsTol = 2.2; % Run the test case and return an object with results data ResultsObj = run(tc); % Open the Test Manager so you can view the simulation % output and comparison data sltest.testmanager.view;
В разделе «Критерии эквивалентности Результат» результатов Test Manager, yout.Ww
сигнал проходит из-за значения допуска. Другие сравнения сигналов не проходят, и полный тест прекращает работать.
В этом примере показано, как использовать пример теста симуляции для сбора результатов покрытия. Чтобы собрать покрытие, вам нужна лицензия Simulink Coverage™.
% Create the test file, test suite, and test case structure tf = sltest.testmanager.TestFile('API Test File'); ts = createTestSuite(tf,'API Test Suite'); tc = createTestCase(ts,'simulation','Coverage Test Case'); % Remove the default test suite tsDel = getTestSuiteByName(tf,'New Test Suite 1'); remove(tsDel); % Assign the system under test to the test case setProperty(tc,'Model','sldemo_autotrans'); % Turn on coverage settings at test-file level cov = getCoverageSettings(tf); cov.RecordCoverage = true; % Enable MCDC and signal range coverage metrics cov.MetricSettings = 'mr'; % Run the test case and return an object with results data rs = run(tf); % Get the coverage results cr = getCoverageResults(rs); % Open the Test Manager to view results sltest.testmanager.view;
На панели Results and Artifacts Диспетчера тестов щелкните Результаты. Можно просмотреть агрегированные результаты покрытия.
В этом примере показано, как создать итерации теста. Можно создать итерации таблицы программно, которые появляются в Iterations разделе теста. Пример создает тест симуляции и присваивает сценарий Редактор для каждой итерации.
% Create test file, test suite, and test case structure tf = sltest.testmanager.TestFile('Iterations Test File'); ts = getTestSuites(tf); tc = createTestCase(ts,'simulation','Simulation Iterations'); % Specify model as system under test setProperty(tc,'Model','sldemo_autotrans'); % Set up table iteration % Create iteration object testItr1 = sltestiteration; % Set iteration settings setTestParam(testItr1,'SignalEditorScenario','Passing Maneuver'); % Add the iteration to test case addIteration(tc,testItr1); % Set up another table iteration % Create iteration object testItr2 = sltestiteration; % Set iteration settings setTestParam(testItr2,'SignalEditorScenario','Coasting'); % Add the iteration to test case addIteration(tc,testItr2); % Run test case that contains iterations results = run(tc); % Get iteration results tcResults = getTestCaseResults(results); iterResults = getIterationResults(tcResults);