Subversion Repositories Kolibri OS

Rev

Blame | Last modification | View Log | RSS feed

  1. /*
  2.  * Copyright (c) 2015 Himangi Saraogi <himangi774@gmail.com>
  3.  *
  4.  * This file is part of FFmpeg.
  5.  *
  6.  * FFmpeg is free software; you can redistribute it and/or
  7.  * modify it under the terms of the GNU Lesser General Public
  8.  * License as published by the Free Software Foundation; either
  9.  * version 2.1 of the License, or (at your option) any later version.
  10.  *
  11.  * FFmpeg is distributed in the hope that it will be useful,
  12.  * but WITHOUT ANY WARRANTY; without even the implied warranty of
  13.  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
  14.  * Lesser General Public License for more details.
  15.  *
  16.  * You should have received a copy of the GNU Lesser General Public
  17.  * License along with FFmpeg; if not, write to the Free Software
  18.  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
  19.  */
  20.  
  21. /**
  22.  * @file detelecine filter.
  23.  */
  24.  
  25.  
  26. #include "libavutil/avstring.h"
  27. #include "libavutil/imgutils.h"
  28. #include "libavutil/opt.h"
  29. #include "libavutil/pixdesc.h"
  30. #include "avfilter.h"
  31. #include "formats.h"
  32. #include "internal.h"
  33. #include "video.h"
  34.  
  35. typedef struct {
  36.     const AVClass *class;
  37.     int first_field;
  38.     char *pattern;
  39.     int start_frame;
  40.     unsigned int pattern_pos;
  41.     unsigned int nskip_fields;
  42.     int64_t start_time;
  43.  
  44.     AVRational pts;
  45.     AVRational ts_unit;
  46.     int occupied;
  47.  
  48.     int nb_planes;
  49.     int planeheight[4];
  50.     int stride[4];
  51.  
  52.     AVFrame *frame;
  53.     AVFrame *temp;
  54. } DetelecineContext;
  55.  
  56. #define OFFSET(x) offsetof(DetelecineContext, x)
  57. #define FLAGS AV_OPT_FLAG_FILTERING_PARAM|AV_OPT_FLAG_VIDEO_PARAM
  58.  
  59. static const AVOption detelecine_options[] = {
  60.     {"first_field", "select first field", OFFSET(first_field), AV_OPT_TYPE_INT,   {.i64=0}, 0, 1, FLAGS, "field"},
  61.         {"top",    "select top field first",                0, AV_OPT_TYPE_CONST, {.i64=0}, 0, 0, FLAGS, "field"},
  62.         {"t",      "select top field first",                0, AV_OPT_TYPE_CONST, {.i64=0}, 0, 0, FLAGS, "field"},
  63.         {"bottom", "select bottom field first",             0, AV_OPT_TYPE_CONST, {.i64=1}, 0, 0, FLAGS, "field"},
  64.         {"b",      "select bottom field first",             0, AV_OPT_TYPE_CONST, {.i64=1}, 0, 0, FLAGS, "field"},
  65.     {"pattern", "pattern that describe for how many fields a frame is to be displayed", OFFSET(pattern), AV_OPT_TYPE_STRING, {.str="23"}, 0, 0, FLAGS},
  66.     {"start_frame", "position of first frame with respect to the pattern if stream is cut", OFFSET(start_frame), AV_OPT_TYPE_INT, {.i64=0}, 0, 13, FLAGS},
  67.     {NULL}
  68. };
  69.  
  70. AVFILTER_DEFINE_CLASS(detelecine);
  71.  
  72. static av_cold int init(AVFilterContext *ctx)
  73. {
  74.     DetelecineContext *s = ctx->priv;
  75.     const char *p;
  76.     int max = 0;
  77.  
  78.     if (!strlen(s->pattern)) {
  79.         av_log(ctx, AV_LOG_ERROR, "No pattern provided.\n");
  80.         return AVERROR_INVALIDDATA;
  81.     }
  82.  
  83.     for (p = s->pattern; *p; p++) {
  84.         if (!av_isdigit(*p)) {
  85.             av_log(ctx, AV_LOG_ERROR, "Provided pattern includes non-numeric characters.\n");
  86.             return AVERROR_INVALIDDATA;
  87.         }
  88.  
  89.         max = FFMAX(*p - '0', max);
  90.         s->pts.num += *p - '0';
  91.         s->pts.den += 2;
  92.     }
  93.  
  94.     s->nskip_fields = 0;
  95.     s->pattern_pos = 0;
  96.     s->start_time = AV_NOPTS_VALUE;
  97.  
  98.     if (s->start_frame != 0) {
  99.         int nfields = 0;
  100.         for (p = s->pattern; *p; p++) {
  101.             nfields += *p - '0';
  102.             s->pattern_pos++;
  103.             if (nfields >= 2*s->start_frame) {
  104.                 s->nskip_fields = nfields - 2*s->start_frame;
  105.                 break;
  106.             }
  107.         }
  108.     }
  109.  
  110.     av_log(ctx, AV_LOG_INFO, "Detelecine pattern %s removes up to %d frames per frame, pts advance factor: %d/%d\n",
  111.            s->pattern, (max + 1) / 2, s->pts.num, s->pts.den);
  112.  
  113.     return 0;
  114. }
  115.  
  116. static int query_formats(AVFilterContext *ctx)
  117. {
  118.     AVFilterFormats *pix_fmts = NULL;
  119.     int fmt;
  120.  
  121.     for (fmt = 0; av_pix_fmt_desc_get(fmt); fmt++) {
  122.         const AVPixFmtDescriptor *desc = av_pix_fmt_desc_get(fmt);
  123.         if (!(desc->flags & AV_PIX_FMT_FLAG_HWACCEL ||
  124.               desc->flags & AV_PIX_FMT_FLAG_PAL     ||
  125.               desc->flags & AV_PIX_FMT_FLAG_BITSTREAM))
  126.             ff_add_format(&pix_fmts, fmt);
  127.     }
  128.  
  129.     return ff_set_common_formats(ctx, pix_fmts);
  130. }
  131.  
  132. static int config_input(AVFilterLink *inlink)
  133. {
  134.     DetelecineContext *s = inlink->dst->priv;
  135.     const AVPixFmtDescriptor *desc = av_pix_fmt_desc_get(inlink->format);
  136.     int ret;
  137.  
  138.     s->temp = ff_get_video_buffer(inlink, inlink->w, inlink->h);
  139.     if (!s->temp)
  140.         return AVERROR(ENOMEM);
  141.  
  142.     s->frame = ff_get_video_buffer(inlink, inlink->w, inlink->h);
  143.     if (!s->frame)
  144.         return AVERROR(ENOMEM);
  145.  
  146.     if ((ret = av_image_fill_linesizes(s->stride, inlink->format, inlink->w)) < 0)
  147.         return ret;
  148.  
  149.     s->planeheight[1] = s->planeheight[2] = FF_CEIL_RSHIFT(inlink->h, desc->log2_chroma_h);
  150.     s->planeheight[0] = s->planeheight[3] = inlink->h;
  151.  
  152.     s->nb_planes = av_pix_fmt_count_planes(inlink->format);
  153.  
  154.     return 0;
  155. }
  156.  
  157. static int config_output(AVFilterLink *outlink)
  158. {
  159.     AVFilterContext *ctx = outlink->src;
  160.     DetelecineContext *s = ctx->priv;
  161.     const AVFilterLink *inlink = ctx->inputs[0];
  162.     AVRational fps = inlink->frame_rate;
  163.  
  164.     if (!fps.num || !fps.den) {
  165.         av_log(ctx, AV_LOG_ERROR, "The input needs a constant frame rate; "
  166.                "current rate of %d/%d is invalid\n", fps.num, fps.den);
  167.         return AVERROR(EINVAL);
  168.     }
  169.     fps = av_mul_q(fps, av_inv_q(s->pts));
  170.     av_log(ctx, AV_LOG_VERBOSE, "FPS: %d/%d -> %d/%d\n",
  171.            inlink->frame_rate.num, inlink->frame_rate.den, fps.num, fps.den);
  172.  
  173.     outlink->flags |= FF_LINK_FLAG_REQUEST_LOOP;
  174.     outlink->frame_rate = fps;
  175.     outlink->time_base = av_mul_q(inlink->time_base, s->pts);
  176.     av_log(ctx, AV_LOG_VERBOSE, "TB: %d/%d -> %d/%d\n",
  177.            inlink->time_base.num, inlink->time_base.den, outlink->time_base.num, outlink->time_base.den);
  178.  
  179.     s->ts_unit = av_inv_q(av_mul_q(fps, outlink->time_base));
  180.  
  181.     return 0;
  182. }
  183.  
  184. static int filter_frame(AVFilterLink *inlink, AVFrame *inpicref)
  185. {
  186.     AVFilterContext *ctx = inlink->dst;
  187.     AVFilterLink *outlink = ctx->outputs[0];
  188.     DetelecineContext *s = ctx->priv;
  189.     int i, len = 0, ret = 0, out = 0;
  190.  
  191.     if (s->start_time == AV_NOPTS_VALUE)
  192.         s->start_time = inpicref->pts;
  193.  
  194.     if (s->nskip_fields >= 2) {
  195.         s->nskip_fields -= 2;
  196.         return 0;
  197.     } else if (s->nskip_fields >= 1) {
  198.         if (s->occupied) {
  199.             s->occupied = 0;
  200.             s->nskip_fields--;
  201.         }
  202.         else {
  203.             for (i = 0; i < s->nb_planes; i++) {
  204.                 av_image_copy_plane(s->temp->data[i], s->temp->linesize[i],
  205.                                     inpicref->data[i], inpicref->linesize[i],
  206.                                     s->stride[i],
  207.                                     s->planeheight[i]);
  208.             }
  209.             s->occupied = 1;
  210.             s->nskip_fields--;
  211.             return 0;
  212.         }
  213.     }
  214.  
  215.     if (s->nskip_fields == 0) {
  216.         while(!len && s->pattern[s->pattern_pos]) {
  217.             len = s->pattern[s->pattern_pos] - '0';
  218.             s->pattern_pos++;
  219.         }
  220.  
  221.         if (!s->pattern[s->pattern_pos])
  222.             s->pattern_pos = 0;
  223.  
  224.         if(!len) { // do not output any field as the entire pattern is zero
  225.             av_frame_free(&inpicref);
  226.             return 0;
  227.         }
  228.  
  229.         if (s->occupied) {
  230.             for (i = 0; i < s->nb_planes; i++) {
  231.                 // fill in the EARLIER field from the new pic
  232.                 av_image_copy_plane(s->frame->data[i] + s->frame->linesize[i] * s->first_field,
  233.                                     s->frame->linesize[i] * 2,
  234.                                     inpicref->data[i] + inpicref->linesize[i] * s->first_field,
  235.                                     inpicref->linesize[i] * 2,
  236.                                     s->stride[i],
  237.                                     (s->planeheight[i] - s->first_field + 1) / 2);
  238.                 // fill in the LATER field from the buffered pic
  239.                 av_image_copy_plane(s->frame->data[i] + s->frame->linesize[i] * !s->first_field,
  240.                                     s->frame->linesize[i] * 2,
  241.                                     s->temp->data[i] + s->temp->linesize[i] * !s->first_field,
  242.                                     s->temp->linesize[i] * 2,
  243.                                     s->stride[i],
  244.                                     (s->planeheight[i] - !s->first_field + 1) / 2);
  245.             }
  246.             len -= 2;
  247.             for (i = 0; i < s->nb_planes; i++) {
  248.                 av_image_copy_plane(s->temp->data[i], s->temp->linesize[i],
  249.                                     inpicref->data[i], inpicref->linesize[i],
  250.                                     s->stride[i],
  251.                                     s->planeheight[i]);
  252.             }
  253.             s->occupied = 1;
  254.             out = 1;
  255.         } else {
  256.             if (len >= 2) {
  257.                 // output THIS image as-is
  258.                 for (i = 0; i < s->nb_planes; i++)
  259.                     av_image_copy_plane(s->frame->data[i], s->frame->linesize[i],
  260.                                         inpicref->data[i], inpicref->linesize[i],
  261.                                         s->stride[i],
  262.                                         s->planeheight[i]);
  263.                 len -= 2;
  264.                 out = 1;
  265.             } else if (len == 1) {
  266.                 // fill in the EARLIER field from the new pic
  267.                 for (i = 0; i < s->nb_planes; i++) {
  268.                     av_image_copy_plane(s->frame->data[i] +
  269.                                         s->frame->linesize[i] * s->first_field,
  270.                                         s->frame->linesize[i] * 2,
  271.                                         inpicref->data[i] +
  272.                                         inpicref->linesize[i] * s->first_field,
  273.                                         inpicref->linesize[i] * 2, s->stride[i],
  274.                                         (s->planeheight[i] - s->first_field + 1) / 2);
  275.                  }
  276.  
  277.                 // TODO: not sure about the other field
  278.  
  279.                 len--;
  280.                 out = 1;
  281.             }
  282.         }
  283.  
  284.         if (len == 1 && s->occupied)
  285.         {
  286.             len--;
  287.             s->occupied = 0;
  288.         }
  289.     }
  290.     s->nskip_fields = len;
  291.  
  292.     if (out) {
  293.         AVFrame *frame = av_frame_clone(s->frame);
  294.  
  295.         if (!frame) {
  296.             av_frame_free(&inpicref);
  297.             return AVERROR(ENOMEM);
  298.         }
  299.  
  300.         av_frame_copy_props(frame, inpicref);
  301.         frame->pts = ((s->start_time == AV_NOPTS_VALUE) ? 0 : s->start_time) +
  302.                      av_rescale(outlink->frame_count, s->ts_unit.num,
  303.                                 s->ts_unit.den);
  304.         ret = ff_filter_frame(outlink, frame);
  305.     }
  306.  
  307.     av_frame_free(&inpicref);
  308.  
  309.     return ret;
  310. }
  311.  
  312. static av_cold void uninit(AVFilterContext *ctx)
  313. {
  314.     DetelecineContext *s = ctx->priv;
  315.  
  316.     av_frame_free(&s->temp);
  317.     av_frame_free(&s->frame);
  318. }
  319.  
  320. static const AVFilterPad detelecine_inputs[] = {
  321.     {
  322.         .name          = "default",
  323.         .type          = AVMEDIA_TYPE_VIDEO,
  324.         .filter_frame  = filter_frame,
  325.         .config_props  = config_input,
  326.     },
  327.     { NULL }
  328. };
  329.  
  330. static const AVFilterPad detelecine_outputs[] = {
  331.     {
  332.         .name          = "default",
  333.         .type          = AVMEDIA_TYPE_VIDEO,
  334.         .config_props  = config_output,
  335.     },
  336.     { NULL }
  337. };
  338.  
  339. AVFilter ff_vf_detelecine = {
  340.     .name          = "detelecine",
  341.     .description   = NULL_IF_CONFIG_SMALL("Apply an inverse telecine pattern."),
  342.     .priv_size     = sizeof(DetelecineContext),
  343.     .priv_class    = &detelecine_class,
  344.     .init          = init,
  345.     .uninit        = uninit,
  346.     .query_formats = query_formats,
  347.     .inputs        = detelecine_inputs,
  348.     .outputs       = detelecine_outputs,
  349. };
  350.