Hindawi Publishing Corporation Advances in ArtiďŹcial Neural Systems Volume 2014, Article ID 750532, 10 pages http://dx.doi.org/10.1155/2014/750532
Research Article Exponential Stability of Periodic Solution to Wilson-Cowan Networks with Time-Varying Delays on Time Scales Jinxiang Cai, Zhenkun Huang, and Honghua Bin School of Science, Jimei University, Xiamen 361021, China Correspondence should be addressed to Zhenkun Huang;
[email protected] Received 31 December 2013; Accepted 12 February 2014; Published 2 April 2014 Academic Editor: Songcan Chen Copyright Š 2014 Jinxiang Cai et al. This is an open access article distributed under the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited. We present stability analysis of delayed Wilson-Cowan networks on time scales. By applying the theory of calculus on time scales, the contraction mapping principle, and Lyapunov functional, new sufficient conditions are obtained to ensure the existence and exponential stability of periodic solution to the considered system. The obtained results are general and can be applied to discretetime or continuous-time Wilson-Cowan networks.
1. Introduction The activity of a cortical column may be mathematically described through the model developed by Wilson and Cowan [1, 2]. Such a model consists of two nonlinear ordinary differential equations representing the interactions between two populations of neurons that are distinguished by the fact that their synapses are either excitatory or inhibitory [2]. A comprehensive paper has been done by Destexhe and Sejnowski [3] which summarized all important development and theoretical results for Wilson-Cowan networks. Its extensive applications include pattern analysis and image processing [4]. Theoretical results about the existence of asymptotic stable limit cycle and chaos have been reported in [5, 6]. Exponential stability of a unique almost periodic solution for delayed Wilson-Cowan type model has been reported in [7]. However, few investigations are fixed on the periodicity of Wilson-Cowan model [8] and it is troublesome to study the stability and periodicity for continuous and discrete system with oscillatory coefficients, respectively. Therefore, it is significant to study Wilson-Cowan networks on time scales [9, 10] which can unify the continuous and discrete situations.
Motivated by recent results [11â13], we consider the following dynamic Wilson-Cowan networks on time scale T: đđÎ (đĄ) = âđđ (đĄ) đđ (đĄ) + [đđ (đĄ) â đđ (đĄ) đđ (đĄ)] Ă đş [đ¤đ1 (đĄ) đđ (đĄ â đđ (đĄ)) 1 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)] , Î đđ (đĄ) = âđđ (đĄ) đđ (đĄ) + [đđ (đĄ) â đđ (đĄ) đđ (đĄ)]
Ă đş [đ¤đ2 (đĄ) đđ (đĄ â đđ (đĄ)) 2 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)] ,
(1) đĄ â T, where đđ (đĄ), đđ(đĄ) represent the proportion of excitatory and inhibitory neurons firing per unit time at the instant đĄ, respectively. đđ (đĄ) > 0 and đđ(đĄ) > 0 represent the function of the excitatory and inhibitory neurons with natural decay over time, respectively. đđ (đĄ) and đđ(đĄ) are related to the duration of the refractory period; đđ (đĄ) and đđ(đĄ) are 1 2 positive scaling coefficients. đ¤đ1 (đĄ), đ¤đ (đĄ), đ¤đ2 (đĄ), and đ¤đ (đĄ) are the strengths of connections between the populations. đźđ (đĄ), đźđ(đĄ) are the external inputs to the excitatory and
2
Advances in Artificial Neural Systems
the inhibitory populations. đş(â
) is the response function of neuronal activity. đđ (đĄ), đđ(đĄ) correspond to the transmission time-varying delays. The main aim of this paper is to unify the discrete and continuous Wilson-Cowan networks with periodic coefficients and time-varying delays under one common framework and to obtain some generalized results to ensure the existence and exponential stability of periodic solution on time scales. The main technique is based on the theory of time scales, the contraction mapping principle, and the Lyapunov functional method.
Definition 5. A function đ : T â R is called rightdense continuous provided that it is continuous at rightdense points of T and the left-side limit exists (finite) at leftdense continuous functions on T. The set of all right-dense continuous functions on T is defined by đśrd = đśrd (T, R).
2. Preliminaries
Definition 6. A function đ : T â T is called a regressive function if and only if 1 + đ(đĄ)đ(đĄ) ≠ 0.
In this section, we give some definitions and lemmas on time scales which can be found in books [14, 15]. Definition 1. A time scale T is an arbitrary nonempty closed subset of the real set R. The forward and backward jump operators đ, đ : T â T and the graininess đ : T â R+ are defined, respectively, by đ (đĄ) := inf {đ â T : đ > đĄ} ,
đ (đĄ) := sup {đ â T : đ < đĄ} , (2)
These jump operators enable us to classify the point {đĄ} of a time scale as right-dense, right-scattered, left-dense, or left-scattered depending on whether đ (đĄ) > đĄ,
đ (đĄ) = đĄ,
đˇ+ đ˘Î (đĄ) =
đ˘ (đ (đĄ)) â đ˘ (đĄ) . đ (đĄ) â đĄ
đ (đĄ) < đĄ,
respectively, for any đĄ â T.
Definition 7 (Bohner and Peterson [14]). If đ â đśrd is a regressive function, then the generalized exponential function đđ (đĄ, đ ) is defined by
Definition 2. One can say that a time scale T is periodic if there exists đ > 0 such that đĄ â T; then đĄ Âą đ â T; the smallest positive number đ is called the period of the time scale. Clearly, if T is a đ-periodic time scale, then đ(đĄ + đđ) = đ(đĄ)+đđ and đ(đĄ+đđ) = đ(đĄ). So, đ(đĄ) is a đ-periodic function. Definition 3. Let T( ≠ R) be a periodic time scale with period đ. One can say that the function đ : T â R is periodic with period đ > 0 if there exists a natural number đ such that đ = đđ, đ(đĄ + đ) = đ(đĄ) for all đĄ â T and đ is the smallest number such that đ(đĄ + đ) = đ(đĄ). If T = R, one can say that đ is periodic with period đ > 0 if đ is the smallest positive number such that đ(đĄ + đ) = đ(đĄ) for all đĄ â R. Definition 4 (Lakshmikantham and Vatsala [16]). For each đĄ â T, let đ be a neighborhood of đĄ. Then, one defines the generalized derivative (or Dini derivative), đˇ+ đ˘Î (đĄ), to mean that, given đ > 0, there exists a right neighborhood đ(đ) â đ of đĄ such that đ˘ (đ (đĄ)) â đ˘ (đ ) < đˇ+ đ˘Î (đĄ) + đ đ˘ (đĄ, đ ) for each đ â đ(đ), đ > đĄ, where đ(đĄ, đ ) = đ(đĄ) â đ .
đđ (đĄ, đ ) = exp {⍠đđ(đ) (đ (đ)) Îđ} , đ
(4)
đ , đĄ â T,
(6)
with the cylinder transformation { Log (1 + âđ§) , â ≠ 0, đâ (đ§) = { â â = 0. {đ§,
(3)
The notation [đ, đ]T means that [đ, đ]T := {đĄ â T : đ ⤠đĄ ⤠đ}. Denote T := {đĄ â T : đĄ ⼠0}.
(5)
The set of all regressive and right-dense continuous functions is denoted by R. Let R+ := {đ â đśrd : 1 + đ(đĄ)đ(đĄ) > 0 for all đĄ â T}. Next, we give the definition of the exponential function and list its useful properties.
đĄ
đ (đĄ) := đ (đĄ) â đĄ.
đ (đĄ) = đĄ,
In case đĄ is right-scattered and đ˘(đĄ) is continuous at đĄ, one gets
(7)
Definition 8. The periodic solution â¤
â đâ (đĄ) = (đđâ (đĄ) , đđ (đĄ))
(8)
of (1) is said to be globally exponentially stable if there exists a positive constant đ and đ = đ(đ) > 0 such that all solutions đ (đĄ) = (đđ (đĄ) , đđ (đĄ))
â¤
(9)
of (1) satisfy óľ¨ óľ¨ óľ¨ óľ¨óľ¨ â â óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨ + óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨ óľ¨ óľ¨ â¤ đ (đ) đâđ (đĄ, đź) ( sup óľ¨óľ¨óľ¨đđ (đ ) â đđâ (đ )óľ¨óľ¨óľ¨ đ â[âđ0 ,0]T
óľ¨ óľ¨ â + sup óľ¨óľ¨óľ¨đđ (đ ) â đđ (đ )óľ¨óľ¨óľ¨) , đ â[âđ0 ,0]T
đĄ â T. (10) Lemma 9 (Bohner and Peterson [15]). If đ, đ â R, then (i) đ0 (đĄ, đ ) ⥠1 and đđ (đĄ, đĄ) ⥠1; (ii) đđ (đ(đĄ), đ ) = (1 + đ(đĄ)đ(đĄ))đđ (đĄ, đ ); (iii) 1/đđ (đĄ, đ ) = đâđ (đĄ, đ ), where âđ(đĄ) = âđ(đĄ)/(1 + đ(đĄ)đ(đĄ));
Advances in Artificial Neural Systems
3
(iv) đđ (đĄ, đ ) = 1/đđ (đ , đĄ) = đâđ (đ , đĄ);
Proof. Let đ(đĄ) = (đđ (đĄ), đđ(đĄ))⤠be a solution of (1); we can rewrite (1) as follows:
(v) đđ (đĄ, đ )đđ (đ , đ) = đđ (đĄ, đ);
đđÎ (đĄ) + đđ (đĄ) (đđđ (đĄ) â đ (đĄ) đđÎ (đĄ))
(vi) đđ (đĄ, đ )đđ (đĄ, đ ) = đđâđ (đĄ, đ ); (vii) đđ (đĄ, đ )/đđ (đĄ, đ ) = đđâđ (đĄ, đ );
= [đđ (đĄ) â đđ (đĄ) đđ (đĄ)]
(viii) (1/đđ (â
, đ ))Î = âđ(đĄ)/đđđ (â
, đ ). Lemma 10 (contraction mapping principle [17]). If Ί is a closed subset of a Banach space đ and F : Ί â Ί is a contraction, then F has a unique fixed point in Ί. For any đ-periodic function V defined on T, denote V = maxđĄâ[0,đ] V(đĄ), V = minđĄâ[0,đ] V(đĄ), |V| = maxđĄâ[0,đ] |V(đĄ)|, and |V| = minđĄâ[0,đ] |V(đĄ)|. Throughout this paper, we make the following assumptions: 1 2 (đ´ 1 ) đđ (đĄ), đđ(đĄ), đđ (đĄ), đđ(đĄ), đ¤đ1 (đĄ), đ¤đ2 (đĄ), đ¤đ (đĄ), đ¤đ (đĄ), đđ (đĄ), đđ(đĄ), đđ (đĄ), đđ(đĄ), đźđ (đĄ), and đźđ(đĄ) are đperiodic functions defined on T, âđđ (đĄ), âđđ(đĄ) â R+ .
(đ´ 2 ) đş(â
) : R â R is Lipschitz continuous; that is, |đş(đ˘) â đş(V)| ⤠đż|đ˘ â V|, for all đ˘, V â R, and đş(0) = 0, supVâR |đş(V)| ⤠đ. For simplicity, take the following denotations: đ
= max {đđ , đđ} ,
1 , đżđ¤2 , đżđ¤2 } , đ = max {đżđ¤đ1 , đżđ¤đ đ đ
(11)
Lemma 11. Suppose (đ´ 1 ) holds; then đ(đĄ) is an đ-periodic solution of (1) if and only if đ(đĄ) is the solution of the following system: 1 đđ (đĄ) = đâ(âđđ ) (đ, 0) â 1 ĂâŤ
đâ(âđđ ) (đ , đĄ) 1 â đ (đ ) đđ (đ )
đĄ
[đđ (đ ) â đđ (đ ) đđ (đ )]
1 âđ¤đ (đ ) đđ (đ â đđ (đ )) + đźđ (đ )] Îđ ,
1 đâ(âđđ ) (đ, 0) â 1 ĂâŤ
đĄ+đ
đĄ
đâ(âđđ ) (đ , đĄ) 1 â đ (đ ) đđ (đ )
(13)
= [đđ (đĄ) â đđ (đĄ) đđ (đĄ)] Ă đş [đ¤đ2 (đĄ) đđ (đĄ â đđ (đĄ)) 2 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)] ,
which leads to đđÎ (đĄ) + â (âđđ ) (đĄ) đđđ (đĄ) = [đđ (đĄ) â đđ (đĄ) đđ (đĄ)] Ă đş [đ¤đ1 (đĄ) đđ (đĄ â đđ (đĄ)) 1 , 1 â đ (đĄ) đđ (đĄ)
= [đđ (đĄ) â đđ (đĄ) đđ (đĄ)] Ă đş [đ¤đ2 (đĄ) đđ (đĄ â đđ (đĄ)) 2 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)]
1 . 1 â đ (đĄ) đđ (đĄ) (14)
Multiplying both sides of the above equalities by đâ(âđđ ) (đĄ, 0) and đâ(âđđ ) (đĄ, 0), respectively, we have Î
Ă đş [đ¤đ1 (đ ) đđ (đ â đđ (đ ))
đđ (đĄ) =
Î đ Î đđ (đĄ) + đđ (đĄ) (đđ (đĄ) â đ (đĄ) đđ (đĄ))
Î đ đđ (đĄ) + â (âđđ) (đĄ) đđ (đĄ)
đ0 = min {|đđ |, |đđ|} .
đĄ+đ
1 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)] ,
1 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)]
óľ¨ óľ¨ óľ¨ óľ¨ đź = max {đżóľ¨óľ¨óľ¨đźđ óľ¨óľ¨óľ¨, đżóľ¨óľ¨óľ¨đźđóľ¨óľ¨óľ¨} ,
đž = max {đđ , đđ} ,
Ă đş [đ¤đ1 (đĄ) đđ (đĄ â đđ (đĄ))
[đâ(âđđ ) (đĄ, 0) đđ (đĄ)]
= [đđ (đĄ) â đđ (đĄ) đđ (đĄ)] Ă đş [đ¤đ1 (đĄ) đđ (đĄ â đđ (đĄ)) 1 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)] đâ(âđđ ) (đ (đĄ) , 0) ,
[đâ(âđđ ) (đĄ, 0) đđ (đĄ)]
Î
= [đđ (đĄ) â đđ (đĄ) đđ (đĄ)] [đđ (đ ) â đđ (đ ) đđ (đ )]
Ă đş [đ¤đ2 (đ ) đđ (đ â đđ (đ )) 2 âđ¤đ (đ ) đđ (đ â đđ (đ )) + đźđ (đ )] Îđ . (12)
Ă đş [đ¤đ2 (đĄ) đđ (đĄ â đđ (đĄ)) 2 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)]
Ă đâ(âđđ ) (đ (đĄ) , 0) . (15)
4
Advances in Artificial Neural Systems
Integrating both sides of the above equalities from đĄ to đĄ + đ and using đđ (đĄ + đ) = đđ (đĄ) and đđ(đĄ + đ) = đđ(đĄ), we have đđ (đĄ) = âŤ
đĄ+đ
đĄ
đđ (đĄ) =
1 đâ(âđđ ) (đ, 0) â 1 đĄ+đ
ĂâŤ
[ [đđ (đ ) â đđ (đ ) đđ (đ )]
đâ(âđđ ) (đ , đĄ) 1 â đ (đ ) đđ (đ )
đĄ
Ă đş [đ¤đ2 (đ ) đđ (đ â đđ (đ ))
Ă đş [đ¤đ1 (đ ) đđ (đ â đđ (đ ))
2 âđ¤đ (đ ) đđ (đ â đđ (đ )) + đźđ (đ )] Îđ .
1 âđ¤đ (đ ) đđ (đ â đđ (đ )) + đźđ (đ )]]
Ă =âŤ
đĄ+đ
đĄ
đâ(âđđ ) (đ (đ ) , 0) đâ(âđđ ) (đĄ + đ, 0) â đâ(âđđ ) (đĄ, 0)
Îđ
3. Main Results In this section, we prove the existence and uniqueness of the periodic solution to (1).
Ă đş [đ¤đ1 (đ ) đđ (đ â đđ (đ )) 1 âđ¤đ (đ ) đđ (đ â đđ (đ )) + đźđ (đ )]]
đđ (đĄ) = âŤ
đĄ+đ
đĄ
đâ(âđđ ) (đ (đ ) , đĄ) đâ(âđđ ) (đĄ + đ, đĄ) â 1
Îđ ,
[ [đđ (đ ) â đđ (đ ) đđ (đ )] Ă đş [đ¤đ2 (đ ) đđ (đ â đđ (đ )) 2 âđ¤đ (đ ) đđ (đ â đđ (đ )) + đźđ (đ )]]
Ă =âŤ
đĄ+đ
đĄ
đâ(âđđ ) (đ (đ ) , 0) đâ(âđđ ) (đĄ + đ, 0) â đâ(âđđ ) (đĄ, 0)
Îđ
đâ(âđđ ) (đ (đ ) , đĄ) đâ(âđđ ) (đĄ + đ, đĄ) â 1
đóľ¨ óľ¨ đ exp (âŤ0 óľ¨óľ¨óľ¨óľ¨đđ(đ) â (âđđ (đ))óľ¨óľ¨óľ¨óľ¨ Îđ) (đž + đ
đ˝ + đ
đ/đ) đź1 := , óľ¨óľ¨ óľ¨ óľ¨óľ¨đâ(âđđ ) (đ, 0) â 1óľ¨óľ¨óľ¨ (1 â đđ đ) óľ¨ óľ¨ đóľ¨ óľ¨ đ exp (âŤ0 óľ¨óľ¨óľ¨óľ¨đđ(đ) â (âđđ (đ))óľ¨óľ¨óľ¨óľ¨ Îđ) (đž + đ
đ˝ + đ
đ/đ) đź2 := , óľ¨óľ¨ óľ¨ óľ¨óľ¨đâ(âđđ ) (đ, 0) â 1óľ¨óľ¨óľ¨ (1 â đđ đ) óľ¨ óľ¨ (19)
Proof. Let X = {đ(đĄ) = (đ§đ (đĄ), đ§đ(đĄ)) | đ â đśrd (T, R2 ), đ(đĄ+ đ) = đ(đĄ)} with the norm âđâ = supđĄâT {|đ§đ (đĄ)|+|đ§đ(đĄ)|}; then X is a Banach space [14]. Define
Ă đş [đ¤đ2 (đ ) đđ (đ â đđ (đ ))
Ă
Theorem 12. Suppose (đ´ 1 )-(đ´ 2 ) hold and max{đź, đ} < 1. Then (1) has a unique đ-periodic solution, where
and đź := max{đź1 , đź2 }.
[ [đđ (đ ) â đđ (đ ) đđ (đ )]
2 âđ¤đ (đ ) đđ (đ
(18) The proof is completed.
[ [đđ (đ ) â đđ (đ ) đđ (đ )]
Ă
â đđ (đ )) + đźđ (đ )]]
Îđ .
where đ(đĄ) = (đ§đ (đĄ), đ§đ(đĄ)) â X and (Fđ)đ (đĄ) =
Since 1 â đ (đ ) đđ (đ ) đâ(âđđ ) (đ , đĄ) 1 â đ (đ ) đđ (đ )
ĂâŤ
đĄ
đĄ+đ
= đâ(âđđ ) (đ (đ ) , đĄ) , = đâ(âđđ ) (đ (đ ) , đĄ)
1 â đ (đ ) đđ (đ )
1 âđ¤đ (đ ) đ§đ (đ â đđ (đ )) + đźđ (đ )]Îđ ,
(Fđ)đ (đĄ) =
1 đâ(âđđ ) (đ, 0) â 1 ĂâŤ
[đđ (đ ) â đđ (đ ) đđ (đ )]
Ă đş [đ¤đ1 (đ ) đđ (đ â đđ (đ )) 1 âđ¤đ (đ ) đđ (đ â đđ (đ )) + đźđ (đ )] Îđ ,
[đđ (đ ) â đđ (đ ) đ§đ (đ )]
Ă đş [đ¤đ1 (đ ) đ§đ (đ â đđ (đ ))
(17)
đâ(âđđ ) (đ , đĄ)
đâ(âđđ ) (đ , đĄ) 1 â đ (đ ) đđ (đ )
đĄ
1 đâ(âđđ ) (đ, 0) â 1 đĄ+đ
1 đâ(âđđ ) (đ, 0) â 1 ĂâŤ
and đđ (đĄ + đ) = đđ (đĄ), đđ(đĄ + đ) = đđ(đĄ), we obtain that đđ (đĄ) =
(Fđ) (đĄ) = ((Fđ)đ (đĄ) , (Fđ)đ (đĄ)) , (20)
F : X ół¨â X,
(16) đâ(âđđ ) (đ , đĄ)
[đđ (đ ) â đđ (đ ) đđ (đ )]
đĄ+đ
đĄ
đâ(âđđ ) (đ , đĄ) 1 â đ (đ ) đđ (đ )
[đđ (đ ) â đđ (đ ) đ§đ (đ )]
Ă đş [đ¤đ2 (đ ) đ§đ (đ â đđ (đ )) 2 âđ¤đ (đ ) đ§đ (đ â đđ (đ )) + đźđ (đ )]Îđ
(21)
Advances in Artificial Neural Systems
5
for đĄ â T. Note that
It follows from (23) and (24) that đ
âŤđĄ đđ(đ) (â(âđđ )(đ))Îđ
đâ(âđđ ) (đ , đĄ) = đ
đĄ+đ
âŤđĄ
â¤đ
đ
= đâŤ0
|đđ(đ) (â(âđđ )(đ))|Îđ
|đđ(đ) (â(âđđ )(đ))|Îđ
.
Let Ί = {đ(đĄ) | đ â X, âđâ ⤠đź/(1âđ)} and đ˝ := đź/(1âđ). Obviously, Ί is a closed nonempty subset of X. Firstly, we prove that the mapping F maps Ί into itself. In fact, for any đ(đĄ) â Ί, we have óľ¨ óľ¨óľ¨ óľ¨óľ¨(Fđ)đ (đĄ)óľ¨óľ¨óľ¨ óľ¨óľ¨ 1 óľ¨ = óľ¨óľ¨óľ¨óľ¨ óľ¨óľ¨ đâ(âđđ ) (đ, 0) â 1 ĂâŤ
đâ(âđđ ) (đ , đĄ)
đĄ+đ
1 â đ (đ ) đđ (đ )
đĄ
âFđâ ⤠đźđź + đźđ âđâ â¤
(22)
[đđ (đ ) â đđ (đ ) đ§đ (đ )]
óľ¨ óľ¨óľ¨ óľ¨óľ¨(Fđ)đ (đĄ) â (Fđó¸ ) (đĄ)óľ¨óľ¨óľ¨ óľ¨ óľ¨ đ óľ¨óľ¨ 1 óľ¨ = óľ¨óľ¨óľ¨óľ¨ óľ¨óľ¨ đâ(âđđ ) (đ, 0) â 1 ĂâŤ
đĄ+đ
1 âđ¤đ (đ ) đ§đ (đ
đĄ+đ
đĄ
1 âđ¤đ (đ ) đ§đ (đ â đđ (đ )) + đźđ (đ )] Îđ
â
â đđ (đ ))
óľ¨ â đđ (đ )) + đźđ (đ )] Îđ óľ¨óľ¨óľ¨óľ¨
Similarly, we have óľ¨óľ¨ óľ¨ óľ¨óľ¨(Fđ)đ (đĄ)óľ¨óľ¨óľ¨ óľ¨óľ¨ 1 óľ¨ = óľ¨óľ¨óľ¨óľ¨ óľ¨óľ¨ đâ(âđđ ) (đ, 0) â 1
1 â đ (đ ) đđ (đ )
[đđ (đ ) â đđ (đ ) đ§đó¸ (đ )]
óľ¨óľ¨ óľ¨ 1 ó¸ (đ â đđ (đ )) + đźđ (đ )] Îđ óľ¨óľ¨óľ¨óľ¨ âđ¤đ (đ ) đ§đ óľ¨óľ¨ đóľ¨ óľ¨ exp (âŤ0 óľ¨óľ¨óľ¨óľ¨đđ(đ) (â (âđđ ) (đ))óľ¨óľ¨óľ¨óľ¨ Îđ) (đžđ + đ
đđ˝ + đ
đ) ⤠óľ¨óľ¨ óľ¨ óľ¨óľ¨đâ(âđđ ) (đ, 0) â 1óľ¨óľ¨óľ¨ (1 â đđ đ) óľ¨ óľ¨ ĂâŤ
đĄ+đ
đĄ
óľ¨óľ¨ óľ¨óľ¨đ§đ (đ â đđ (đ )) â đ§đó¸ (đ â đđ (đ )) + đ§đ (đ â đđ (đ )) óľ¨ óľ¨ ó¸ âđ§đ (đ â đđ (đ ))óľ¨óľ¨óľ¨óľ¨ Îđ
(23)
đĄ
đâ(âđđ ) (đ , đĄ) 1 â đ (đ ) đđ (đ )
Ă đş [đ¤đ1 (đ ) đ§đó¸ (đ â đđ (đ ))
đĄâT
ĂâŤ
đĄ+đ
đĄ
óľ¨ óľ¨ óľ¨ óľ¨ â¤ đź1 (đź + đsup (óľ¨óľ¨óľ¨đ§đ (đĄ)óľ¨óľ¨óľ¨ + óľ¨óľ¨óľ¨đ§đ (đĄ)óľ¨óľ¨óľ¨)) .
đâ(âđđ ) (đ , đĄ)
1 đâ(âđđ ) (đ, 0) â 1
ĂâŤ
óľ¨ óľ¨óľ¨ óľ¨óľ¨[đđ§đ (đ â đđ (đ )) + đđ§đ (đ â đđ (đ )) + đź]óľ¨óľ¨óľ¨ Îđ
đĄ+đ
[đđ (đ ) â đđ (đ ) đ§đ (đ )]
Ă đş [đ¤đ1 (đ ) đ§đ (đ â đđ (đ ))
đóľ¨ óľ¨ exp (âŤ0 óľ¨óľ¨óľ¨óľ¨đđ(đ) (â (âđđ ) (đ))óľ¨óľ¨óľ¨óľ¨ Îđ) (đž + đ
đ˝) ⤠óľ¨óľ¨ óľ¨óľ¨ óľ¨óľ¨óľ¨đâ(âđđ ) (đ, 0) â 1óľ¨óľ¨óľ¨ (1 â đđ đ)
ĂâŤ
đâ(âđđ ) (đ , đĄ) 1 â đ (đ ) đđ (đ )
đĄ
óľ¨óľ¨ óľ¨ 1 âđ¤đ (đ ) đ§đ (đ â đđ (đ )) + đźđ (đ )] Îđ óľ¨óľ¨óľ¨óľ¨ óľ¨óľ¨ đ óľ¨óľ¨ óľ¨óľ¨ exp (⍠óľ¨óľ¨đđ(đ) (â (âđđ ) (đ))óľ¨óľ¨óľ¨ Îđ) ⤠óľ¨óľ¨ 0 óľ¨ óľ¨ óľ¨óľ¨đâ(âđđ ) (đ, 0) â 1óľ¨óľ¨óľ¨ (1 â đđ đ) óľ¨ óľ¨ đĄ+đ óľ¨óľ¨ à ⍠óľ¨óľ¨óľ¨ [đđ (đ ) â đđ (đ ) đ§đ (đ )] đĄ Ă
(25)
Hence, Fđ â Ί. Next, we prove that F is a contraction mapping. For any ó¸ đ(đĄ) = (đ§đ (đĄ), đ§đ(đĄ)) â Ί, đó¸ (đĄ) = (đ§đó¸ (đĄ), đ§đ (đĄ)) â Ί, we have
Ă đş [đ¤đ1 (đ ) đ§đ (đ â đđ (đ ))
đş [đ¤đ1 (đ ) đ§đ (đ
đź . 1âđ
óľ¨ óľ¨ óľ¨ óľ¨ ó¸ ⤠đź1 đsup [óľ¨óľ¨óľ¨óľ¨đ§đ (đĄ) â đ§đó¸ (đĄ)óľ¨óľ¨óľ¨óľ¨ + óľ¨óľ¨óľ¨óľ¨đ§đ (đĄ) â đ§đ (đĄ)óľ¨óľ¨óľ¨óľ¨] . đĄâT
(26) Similarly, we have
[đđ (đ ) â đđ (đ ) đ§đ (đ )]
Ă đş [đ¤đ2 (đ ) đ§đ (đ â đđ (đ ))
óľ¨óľ¨ óľ¨ 2 âđ¤đ (đ ) đ§đ (đ â đđ (đ )) + đźđ (đ )] Îđ óľ¨óľ¨óľ¨óľ¨ óľ¨óľ¨
óľ¨ óľ¨ óľ¨ óľ¨ â¤ đź2 (đź + đsup (óľ¨óľ¨óľ¨đ§đ (đĄ)óľ¨óľ¨óľ¨ + óľ¨óľ¨óľ¨đ§đ (đĄ)óľ¨óľ¨óľ¨)) .
óľ¨óľ¨ óľ¨ óľ¨óľ¨(Fđ)đ (đĄ) â (Fđó¸ ) (đĄ)óľ¨óľ¨óľ¨ óľ¨ óľ¨ đ óľ¨óľ¨ 1 óľ¨ = óľ¨óľ¨óľ¨óľ¨ óľ¨óľ¨ đâ(âđđ ) (đ, 0) â 1 ĂâŤ
đĄ+đ
đĄ
đâ(âđđ ) (đ , đĄ) 1 â đ (đ ) đđ (đ )
[đđ (đ ) â đđ (đ ) đ§đ (đ )]
Ă đş [đ¤đ2 (đ ) đ§đ (đ â đđ (đ ))
đĄâT
(24)
2 âđ¤đ (đ ) đ§đ (đ â đđ (đ )) + đźđ (đ )] Îđ
6
Advances in Artificial Neural Systems â
1 đâ(âđđ ) (đ, 0) â 1
ĂâŤ
đĄ+đ
đĄ
đâ(âđđ ) (đ , đĄ) 1 â đ (đ ) đđ (đ )
Î
â (đđ (đĄ) â đđ (đĄ))
â = âđđ (đĄ) (đđ (đĄ) â đđ (đĄ))
ó¸ [đđ (đ ) â đđ (đ ) đ§đ (đ )]
+ đđ (đĄ) đş [đ¤đ2 (đĄ) đđ (đĄ â đđ (đĄ))
Ă đş [đ¤đ2 (đ ) đ§đó¸ (đ â đđ (đ )) óľ¨óľ¨ óľ¨ 2 ó¸ (đ â đđ (đ )) + đźđ (đ )] Îđ óľ¨óľ¨óľ¨óľ¨ âđ¤đ (đ ) đ§đ óľ¨óľ¨ óľ¨ óľ¨ óľ¨ óľ¨ ó¸ ⤠đź2 đsup [óľ¨óľ¨óľ¨óľ¨đ§đ (đĄ) â đ§đó¸ (đĄ)óľ¨óľ¨óľ¨óľ¨ + óľ¨óľ¨óľ¨óľ¨đ§đ (đĄ) â đ§đ (đĄ)óľ¨óľ¨óľ¨óľ¨] . đĄâT (27) From (26) and (27), we can get óľŠóľŠ óľŠóľŠ ó¸ óľŠ ó¸ óľŠ óľŠ óľŠ (28) óľŠóľŠóľŠ(Fđ) â (Fđ )óľŠóľŠóľŠ ⤠đźđ óľŠóľŠóľŠđ â đ óľŠóľŠóľŠ . Note that đźđ < 1. Thus, F is a contraction mapping. By the fixed point theorem in the Banach space, F possesses a unique fixed point. The proof is completed. Theorem 13. Under the conditions of Theorem 12, suppose further the following. (đ´ 3 ) There exist some constants đ > 0, đ > 0, đó¸ > 0 such that đó¸ (1 + đđ (đĄ + đ0 )) (đž + đ
đ˝) đ đđ (đĄ + đ0 , đĄ) < 1, (1 + ) đ (đđ â đ
đ) (1 + đđ (đĄ)) â đ đ (1 + đđ (đĄ + đ0 )) (đž + đ
đ˝) đ đđ (đĄ + đ0 , đĄ) < 1; (1 + ó¸ ) đ (đđ â đ
đ) (1 + đđ (đĄ)) â đ (29) then the periodic solution of (1) is globally exponentially stable. Proof. It follows from Theorem 12 that (1) has an đ-periodic â solution đâ = (đđâ (đĄ), đđ (đĄ))⤠. Let đ(đĄ) = (đđ (đĄ), đđ(đĄ))⤠be any solution of (1); then we have (đđ (đĄ) â
2 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)]
â đđ (đĄ) đş [đ¤đ2 (đĄ) đđâ (đĄ â đđ (đĄ)) 2 â (đĄ â đđ (đĄ)) + đźđ (đĄ)] âđ¤đ (đĄ) đđ
â đđ (đĄ) đđ (đĄ) đş [đ¤đ2 (đĄ) đđ (đĄ â đđ (đĄ)) 2 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)] â + đđ (đĄ) đđ (đĄ) đş [đ¤đ2 (đĄ) đđâ (đĄ â đđ (đĄ)) 2 â (đĄ â đđ (đĄ)) + đźđ (đĄ)] , âđ¤đ (đĄ) đđ
(30) which leads to óľ¨ óľ¨Î đˇ+ óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ óľ¨ óľ¨ â¤ â (đđ â đ
đ) óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ + (đž + đ
đ˝) đ óľ¨ óľ¨ Ă (óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđâ (đĄ â đ0 )óľ¨óľ¨óľ¨ óľ¨ óľ¨ â + óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđ (đĄ â đ0 )óľ¨óľ¨óľ¨) , óľ¨Î óľ¨ â đˇ+ óľ¨óľ¨óľ¨đđ(đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨ óľ¨ óľ¨ â ⤠â (đđ â đ
đ) óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨ + (đž + đ
đ˝) đ óľ¨ óľ¨ Ă (óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđâ (đĄ â đ0 )óľ¨óľ¨óľ¨ óľ¨ óľ¨ â + óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđ (đĄ â đ0 )óľ¨óľ¨óľ¨) .
Î đđâ (đĄ))
= âđđ (đĄ) (đđ (đĄ) â
(31) đđâ (đĄ))
For any đź â [âđ0 , 0]T , construct the Lyapunov functional đ(đĄ) = đ1 (đĄ) + đ2 (đĄ) + đ3 (đĄ) + đ4 (đĄ), where
+ đđ (đĄ) đş [đ¤đ1 (đĄ) đđ (đĄ â đđ (đĄ)) 1 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)]
â đđ (đĄ) đş [đ¤đ1 (đĄ) đđâ (đĄ â đđ (đĄ)) 1 â (đĄ â đđ (đĄ)) + đźđ (đĄ)] âđ¤đ (đĄ) đđ
óľ¨ óľ¨ đ1 (đĄ) = đđđ (đĄ, đź) óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ , óľ¨ óľ¨ â đ3 (đĄ) = đó¸ đđ (đĄ, đź) óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨ , đ2 (đĄ) = đ âŤ
đĄ
đĄâđ0
â đđ (đĄ) đđ (đĄ) đş [đ¤đ1 (đĄ) đđ (đĄ â đđ (đĄ)) 1 âđ¤đ (đĄ) đđ (đĄ â đđ (đĄ)) + đźđ (đĄ)]
+
đđ (đĄ) đđâ (đĄ) đş [đ¤đ1 (đĄ) đđâ (đĄ
â đđ (đĄ))
1 â âđ¤đ (đĄ (đĄ) đđ
â đđ (đĄ)) + đźđ (đĄ)] ,
(1 + đđ (đ + đ0 )) đđ (đ + đ0 , đź) (đž + đ
đ˝) đ óľ¨ óľ¨ óľ¨ óľ¨ â Ă (óľ¨óľ¨óľ¨đđ (đ ) â đđâ (đ )óľ¨óľ¨óľ¨ + óľ¨óľ¨óľ¨đđ (đ ) â đđ (đ )óľ¨óľ¨óľ¨) Îđ ,
đ4 (đĄ) = đó¸ âŤ
đĄ
đĄâđ0
(1 + đđ (đ + đ0 )) đđ (đ + đ0 , đź) (đž + đ
đ˝) đ
óľ¨ óľ¨ óľ¨ óľ¨ â Ă (óľ¨óľ¨óľ¨đđ (đ ) â đđâ (đ )óľ¨óľ¨óľ¨ + óľ¨óľ¨óľ¨đđ (đ ) â đđ (đ )óľ¨óľ¨óľ¨) Îđ . (32)
Advances in Artificial Neural Systems
7 óľ¨ óľ¨ â Ă óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨ + đó¸ (1 + đđ (đĄ)) đđ (đĄ, đź) (đž + đ
đ˝)
Calculating đˇ+ đ(đĄ)Î along (1), we can get
óľ¨ óľ¨ Ă đ Ă (óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđâ (đĄ â đ0 )óľ¨óľ¨óľ¨
óľ¨ đˇ+ đ1 (đĄ)Î óľ¨óľ¨óľ¨óľ¨(1) óľ¨ óľ¨ â¤ đ [đđđ (đĄ, đź) óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨
óľ¨ đˇ+ đ4 (đĄ)Î óľ¨óľ¨óľ¨óľ¨(1)
óľ¨ óľ¨Î +đđ (đ (đĄ) , đź) đˇ+ óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ ]
⤠đó¸ (1 + đđ (đĄ + đ0 )) đđ (đĄ + đ0 , đź) (đž + đ
đ˝) đ
óľ¨ óľ¨ â¤ đ {đđđ (đĄ, đź) óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ + đđ (đ (đĄ) , đź)
óľ¨ óľ¨ óľ¨ óľ¨ â Ă (óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ + óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨)
óľ¨ óľ¨ Ă [â (đđ â đ
đ) óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ + (đž + đ
đ˝) đ
â đó¸ (1 + đđ (đĄ)) đđ (đĄ, đź) (đž + đ
đ˝) đ óľ¨ óľ¨ Ă (óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđâ (đĄ â đ0 )óľ¨óľ¨óľ¨
óľ¨ óľ¨ Ă (óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđâ (đĄ â đ0 )óľ¨óľ¨óľ¨
óľ¨ óľ¨ â + óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđ (đĄ â đ0 )óľ¨óľ¨óľ¨) .
óľ¨ óľ¨ â + óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđ (đĄ â đ0 )óľ¨óľ¨óľ¨) ]} óľ¨ óľ¨ = đ [đ â (đđ â đ
đ) (1 + đđ (đĄ))] đđ (đĄ, đź) óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨
(35) We have
Î óľ¨óľ¨ đˇ+ (đ3 (đĄ) + đ4 (đĄ)) óľ¨óľ¨óľ¨ óľ¨(1)
+ đ (1 + đđ (đĄ)) đđ (đĄ, đź) (đž + đ
đ˝) đ óľ¨ óľ¨ Ă (óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđâ (đĄ â đ0 )óľ¨óľ¨óľ¨
⤠đó¸ [đ â (đđ â đ
đ) (1 + đđ (đĄ))]
óľ¨ óľ¨ â + óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđ (đĄ â đ0 )óľ¨óľ¨óľ¨) , óľ¨ đˇ+ đ2 (đĄ)Î óľ¨óľ¨óľ¨óľ¨(1)
óľ¨ óľ¨ â Ă đđ (đĄ, đź) óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨ + đó¸ (1 + đđ (đĄ + đ0 )) đđ (đĄ + đ0 , đź) (đž + đ
đ˝) đ
⤠đ (1 + đđ (đĄ + đ0 )) đđ (đĄ + đ0 , đź) (đž + đ
đ˝) đ
óľ¨ óľ¨ â Ă (óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨) + đó¸ (1 + đđ (đĄ + đ0 ))
óľ¨ óľ¨ óľ¨ óľ¨ â Ă (óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ + óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨)
óľ¨ óľ¨ Ă đđ (đĄ + đ0 , đź) (đž + đ
đ˝) đ (óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨) . (36)
â đ (1 + đđ (đĄ)) đđ (đĄ, đź) (đž + đ
đ˝) đ óľ¨ óľ¨ Ă (óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđâ (đĄ â đ0 )óľ¨óľ¨óľ¨
óľ¨ óľ¨ â + óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđ (đĄ â đ0 )óľ¨óľ¨óľ¨) , (33)
which leads to Î óľ¨óľ¨ đˇ+ (đ1 (đĄ) + đ2 (đĄ)) óľ¨óľ¨óľ¨ óľ¨(1)
⤠đ [đ â (đđ â đ
đ) (1 + đđ (đĄ))] óľ¨ óľ¨ Ă đđ (đĄ, đź) óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ + đ (1 + đđ (đĄ + đ0 )) đđ (đĄ + đ0 , đź) (đž + đ
đ˝) đ (34) óľ¨ óľ¨ Ă (óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨) + đ (1 + đđ (đĄ + đ0 )) đđ (đĄ + đ0 , đź) (đž + đ
đ˝) đ óľ¨ óľ¨ â Ă (óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨) .
From (34) and (36), we can get óľ¨ đˇ+ đ(đĄ)Î óľ¨óľ¨óľ¨óľ¨(1) ⤠{đ [đ â (đđ â đ
đ) (1 + đđ (đĄ))] + (đ + đó¸ ) (1 + đđ (đĄ + đ0 )) đđ (đĄ + đ0 , đĄ) (đž + đ˝đ
) đ} óľ¨ óľ¨ Ă đđ (đĄ, đź) óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ + {đó¸ [đ â (đđ â đ
đ) (1 + đđ (đĄ))] + (đ + đó¸ ) Ă (1 + đđ (đĄ + đ0 )) đđ (đĄ + đ0 , đĄ) (đž + đ˝đ
) đ} óľ¨ óľ¨ â Ă đđ (đĄ, đź) óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨ .
⤠đó¸ [đ â (đđ â đ
đ) (1 + đđ (đĄ))] đđ (đĄ, đź)
(37)
By assumption (đ´ 3 ), it follows that đ(đĄ) ⤠đ(0) for đĄ â T + . On the other hand, we have đ (0) ⤠[đđđ (0, đź) + (đ + đó¸ )
Note that óľ¨ đˇ+ đ3 (đĄ)Î óľ¨óľ¨óľ¨óľ¨(1)
óľ¨ óľ¨ â + óľ¨óľ¨óľ¨đđ (đĄ â đ0 ) â đđ (đĄ â đ0 )óľ¨óľ¨óľ¨) ,
0
à ⍠(1 + đđ (đ + đ0 )) đđ (đ + đ0 , đź) (đž + đ˝đ
) đÎđ ] âđ0
Ă
óľ¨ óľ¨ sup óľ¨óľ¨óľ¨đđ (đ ) â đđâ (đ )óľ¨óľ¨óľ¨ đ â[âđ0 ,0]T
8
Advances in Artificial Neural Systems Consider the following Wilson-Cowan neural network with delays on time scale T:
+ [đó¸ đđ (0, đź) + (đ + đó¸ ) 0
Ă⍠(1+đđ (đ + đ0 )) đđ (đ + đ0 , đź) (đž + đ˝đ
) đÎđ ] âđ0
Ă
óľ¨ óľ¨ â sup óľ¨óľ¨óľ¨đđ (đ ) â đđ (đ )óľ¨óľ¨óľ¨
= âđđ (đĄ) đđ (đĄ) + [đđ (đĄ) â đđ (đĄ) đđ (đĄ)]
đ â[âđ0 ,0]T
= Î (đ) ( sup đ â[âđ0 ,0]T
1 Ă đş [đ¤đ1 (đĄ) đđ (đĄ â 2) â đ¤đ (đĄ) đđ (đĄ â 1) + đźđ (đĄ)] ,
óľ¨ óľ¨óľ¨ â óľ¨óľ¨đđ (đ ) â đđ (đ )óľ¨óľ¨óľ¨
Î đđ (đĄ)
óľ¨ óľ¨ â + sup óľ¨óľ¨óľ¨đđ (đ ) â đđ (đ )óľ¨óľ¨óľ¨) , đ â[âđ0 ,0]T
= âđđ (đĄ) đđ (đĄ) + [đđ (đĄ) â đđ (đĄ) đđ (đĄ)] (38)
where Î(đ) = max{Î 1 , Î 2 }, Î 1 = đđđ (0, đź) + (đ + đó¸ ) ĂâŤ
0
âđ0
(1 + đđ (đ + đ0 )) đđ (đ + đ0 , đź) (đž + đ˝đ
) đÎđ ,
0
âđ0
2 Ă đş [đ¤đ2 (đĄ) đđ (đĄ â 2) â đ¤đ (đĄ) đđ (đĄ â 1) + đźđ (đĄ)] . (43)
Case 1. Consider T = R. Take (đđ (đĄ), đđ(đĄ))⤠= (2+sin(đĄ), 2+ cos(đĄ))⤠. Obviously, đđ = đđ = 1, 2đ
exp (âŤ0 đđ (đ ) đđ )
Î 2 = đó¸ đđ (0, đź) + (đ + đó¸ ) ĂâŤ
đđÎ (đĄ)
=
2đ
(1 + đđ (đ + đ0 )) đđ (đ + đ0 , đź) (đž + đ˝đ
) đÎđ . (39)
It is obvious that óľ¨ óľ¨ óľ¨ óľ¨ â đđđ (đĄ, đź) óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ + đó¸ đđ (đĄ, đź) óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨ ⤠đ (đĄ) ⤠đ (0) , (40) which means that óľ¨ óľ¨ óľ¨ óľ¨ â min {đ, đó¸ } đđ (đĄ, đź) (óľ¨óľ¨óľ¨đđ (đĄ) â đđâ (đĄ)óľ¨óľ¨óľ¨ + óľ¨óľ¨óľ¨đđ (đĄ) â đđ (đĄ)óľ¨óľ¨óľ¨) ⤠đ (0) . (41) Thus, we finally get óľ¨óľ¨óľ¨đđ (đĄ) â đâ (đĄ)óľ¨óľ¨óľ¨ + óľ¨óľ¨óľ¨đđ (đĄ) â đâ (đĄ)óľ¨óľ¨óľ¨ đ đ óľ¨ óľ¨ óľ¨ óľ¨
exp (âŤ0 đđ (đ ) đđ ) â 1
đ4đ , â1
đ4đ
(44)
2đ
exp (âŤ0 đđ (đ ) đđ ) 2đ
exp (âŤ0 đđ (đ ) đđ ) â 1
=
4đ
đ
đ4đ
â1
.
Take (đźđ (đĄ), đźđ(đĄ))⤠= (â1 + sin(đĄ), cos(đĄ))⤠, đđ (đĄ) = đđ(đĄ) = 1 2 (đĄ) = đ¤đ2 (đĄ) = đ¤đ (đĄ) = 0.1, đđ (đĄ) = đđ(đĄ) = 0.01, đ¤đ1 (đĄ) = đ¤đ and đş(đĽ) = (1/2)(|đĽ + 1| â |đĽ â 1|). We have đż = 1. Let đ = 1, đó¸ = 2. One can easily verify that 2đ
exp (âŤ0 đđ (đ ) đđ ) đ
đ đź1 = đ (đž + đ
đ˝ + ) đ exp (âŤ2đ đ (đ ) đđ ) â 1 đ
0
â 0.831 < 1, 2đ
exp (âŤ0 đđ (đ ) đđ ) đ
đ đź2 = đ (đž + đ
đ˝ + ) đ exp (âŤ2đ đ (đ ) đđ ) â 1
Î (đ) đâđ (đĄ, đź) óľ¨ óľ¨ â¤ Ă ( sup óľ¨óľ¨óľ¨đđ (đ ) â đđâ (đ )óľ¨óľ¨óľ¨ min {đ, đó¸ } đ â[âđ0 ,0]T
0
óľ¨ óľ¨ â + sup óľ¨óľ¨óľ¨đđ (đ ) â đđ (đ )óľ¨óľ¨óľ¨) . đ â[âđ0 ,0]T
(42) Therefore, the unique periodic solution of (1) is globally exponentially stable. The proof is completed.
4. Examples In this section, two numerical examples are shown to verify the effectiveness of the result obtained in the previous section.
(45)
đ
â 0.831 < 1, âđ (đđ â đ
đ) + (đ + đó¸ ) (đž + đ˝đ
) đ â â0.980 < 0, âđó¸ (đđ â đ
đ) + (đ + đó¸ ) (đž + đ˝đ
) đ â â1.970 < 0. It follows from Theorems 12 and 13 that (43) has a unique 2đperiodic solution which is globally exponentially stable (see Figure 1).
Advances in Artificial Neural Systems
9
0.02
0.02
0.015
0.015
0.01
0.01
0.005
0.005
0
0
â0.005
â0.005
â0.01
â0.01
â0.015
â0.015
â0.02
0
2
4
6
8
10
12
14
16
18
20
â0.02
0
5
10
15
Time t
Figure 1: Globally exponentially stable periodic solution of (43).
Case 2. Consider T = Z. Equation (43) reduces to the following difference equation: đđ (đ + 1) â đđ (đ)
Ă đş [đ¤đ1 (đ) đđ (đ â 2) â 1) + đźđ (đ)] ,
Figure 2: Globally exponentially stable periodic solution of (46).
đź2 = (đž + đ
đ˝ +
đ
đ ) đ
âđó¸ (đđ â đ
đ) + (đ + đó¸ ) (đž + đ˝đ
) đ â â0.970 < 0. (47)
2 Ă đş [đ¤đ2 (đ) đđ (đ â 2) â đ¤đ (đ) đđ (đ â 1) + đźđ (đ)] ,
(46) for đ â Z+0 . Take (đđ (đ), đđ(đ))⤠= (1/2, 1/2)⤠. Obviously, đđ = đđ = 1/2, đđ = đđ = 1/2, (đźđ (đĄ), đźđ(đĄ))⤠= (1 + sin(đđ/3), cos(đđ/3))⤠, đđ (đĄ) = đđ(đĄ) = đđ (đĄ) = đđ(đĄ) = 1 2 (đĄ) = đ¤đ2 (đĄ) = đ¤đ (đĄ) = 0.1, and đş(đĽ) = 0.01, đ¤đ1 (đĄ) = đ¤đ (1/2)(|đĽ + 1| â |đĽ â 1|). We have đż = 1. Let đ = 1, đó¸ = 2. If T = Z, (đ(đĄ) = 1), choosing đ = 6, by simple calculation, we have đź1
óľ¨ óľ¨óľ¨ đâ1 óľ¨óľ¨ óľ¨óľ¨óľ¨ đ óľ¨óľ¨óľ¨1 â âđâ1 đ=1 (1 â đđ (đ))óľ¨óľ¨ exp (âđ=0 óľ¨óľ¨Log (1 â đđ (đ))óľ¨óľ¨) Ă óľ¨ óľ¨óľ¨ đâ1 óľ¨ óľ¨óľ¨âđ=1 (1 â đđ (đ))óľ¨óľ¨óľ¨ (1 â đđ ) óľ¨ óľ¨ â 0.015 < 1,
40
âđ (đđ â đ
đ) + (đ + đó¸ ) (đž + đ˝đ
) đ â â0.480 < 0,
= âđđ (đ) đđ (đ) + [đđ (đ) â đđ (đ) đđ (đ)]
đ
đ ) đ
35
â 0.015 < 1,
đđ (đ + 1) â đđ (đ)
= (đž + đ
đ˝ +
30
óľ¨óľ¨ óľ¨ óľ¨óľ¨ đâ1 óľ¨óľ¨ óľ¨ đ óľ¨óľ¨óľ¨1 â âđâ1 đ=1 (1 â đđ (đ))óľ¨óľ¨ exp (âđ=0 óľ¨óľ¨Log (1 â đđ (đ))óľ¨óľ¨) Ă óľ¨ óľ¨óľ¨ đâ1 óľ¨ óľ¨óľ¨âđ=1 (1 â đđ (đ))óľ¨óľ¨óľ¨ (1 â đđ) óľ¨ óľ¨
= âđđ (đ) đđ (đ) + [đđ (đ) â đđ (đ) đđ (đ)]
â
25
XP (n) XN (n)
XP (t) XN (t)
1 đ¤đ (đ) đđ (đ
20 n
It follows from Theorems 12 and 13 that (46) has a unique 6periodic solution which is globally exponentially stable (see Figure 2).
5. Conclusion Remarks In this paper, we studied the stability of delayed WilsonCowan networks on periodic time scales and obtained some more generalized results to ensure the existence, uniqueness, and global exponential stability of the periodic solution. These results can give a significant insight into the complex dynamical structure of Wilson-Cowan type model. The conditions are easily checked in practice by simple algebraic methods.
Conflict of Interests The authors declare that there is no conflict of interests regarding the publication of this paper.
10
Acknowledgments This research was supported by the National Natural Science Foundation of China (11101187 and 11361010), the Foundation for Young Professors of Jimei University, the Excellent Youth Foundation of Fujian Province (2012J06001 and NCETFJ JA11144), and the Foundation of Fujian Higher Education (JA10184 and JA11154).
References [1] H. R. Wilson and J. D. Cowan, âExcitatory and inhibitory interactions in localized populations of model neurons,â Biophysical Journal, vol. 12, no. 1, pp. 1â24, 1972. [2] H. R. Wilson and J. D. Cowan, âA mathematical theory of the functional dynamics of cortical and thalamic nervous tissue,â Kybernetik, vol. 13, no. 2, pp. 55â80, 1973. [3] A. Destexhe and T. J. Sejnowski, âThe Wilson-Cowan model, 36 years later,â Biological Cybernetics, vol. 101, no. 1, pp. 1â2, 2009. [4] K. Mantere, J. Parkkinen, T. Jaaskelainen, and M. M. Gupta, âWilson-Cowan neural-network model in image processing,â Journal of Mathematical Imaging and Vision, vol. 2, no. 2-3, pp. 251â259, 1992. [5] C. van Vreeswijk and H. Sompolinsky, âChaos in neuronal networks with balanced excitatory and inhibitory activity,â Science, vol. 274, no. 5293, pp. 1724â1726, 1996. [6] L. H. A. Monteiro, M. A. Bussab, and J. G. Berlinck, âAnalytical results on a Wilson-Cowan neuronal network modified model,â Journal of Theoretical Biology, vol. 219, no. 1, pp. 83â91, 2002. [7] S. Xie and Z. Huang, âAlmost periodic solution for WilsonCowan type model with time-varying delays,â Discrete Dynamics in Nature and Society, vol. 2013, Article ID 683091, 7 pages, 2013. [8] V. W. Noonburg, D. Benardete, and B. Pollina, âA periodically forced Wilson-Cowan system,â SIAM Journal on Applied Mathematics, vol. 63, no. 5, pp. 1585â1603, 2003. [9] S. Hilger, âAnalynis on measure chains-a unified approach to continuous and discrete calculus,â Results in Mathematics, vol. 18, pp. 18â56, 1990. [10] S. Hilger, âDifferential and difference calculusâunified!,â Nonlinear Analysis: Theory, Methods & Applications, vol. 30, no. 5, pp. 2683â2694, 1997. [11] A. Chen and F. Chen, âPeriodic solution to BAM neural network with delays on time scales,â Neurocomputing, vol. 73, no. 1â3, pp. 274â282, 2009. [12] Y. Li, X. Chen, and L. Zhao, âStability and existence of periodic solutions to delayed Cohen-Grossberg BAM neural networks with impulses on time scales,â Neurocomputing, vol. 72, no. 7â9, pp. 1621â1630, 2009. [13] Z. Huang, Y. N. Raffoul, and C. Cheng, âScale-limited activating sets and multiperiodicity for threshold-linear networks on time scales,â IEEE Transactions on Cybernetics, vol. 44, no. 4, pp. 488â 499, 2014. [14] M. Bohner and A. Peterson, Dynamic Equations on Time Scales: An Introduction with Applications, Birkh¨auser, Boston, Mass, USA, 2001. [15] M. Bohner and A. Peterson, Advance in Dynamic Equations on Time Scales, Birkh¨auser, Boston, Mass, USA, 2003. [16] V. Lakshmikantham and A. S. Vatsala, âHybrid systems on time scales,â Journal of Computational and Applied Mathematics, vol. 141, no. 1-2, pp. 227â235, 2002.
Advances in Artificial Neural Systems [17] A. Ruffing and M. Simon, âCorresponding Banach spaces on time scales,â Journal of Computational and Applied Mathematics, vol. 179, no. 1-2, pp. 313â326, 2005.
Journal of
Advances in
Industrial Engineering
Multimedia
Hindawi Publishing Corporation http://www.hindawi.com
The Scientific World Journal Volume 2014
Hindawi Publishing Corporation http://www.hindawi.com
Volume 2014
Applied Computational Intelligence and Soft Computing
International Journal of
Distributed Sensor Networks Hindawi Publishing Corporation http://www.hindawi.com
Volume 2014
Hindawi Publishing Corporation http://www.hindawi.com
Volume 2014
Hindawi Publishing Corporation http://www.hindawi.com
Volume 2014
Advances in
Fuzzy Systems Modelling & Simulation in Engineering Hindawi Publishing Corporation http://www.hindawi.com
Hindawi Publishing Corporation http://www.hindawi.com
Volume 2014
Volume 2014
Submit your manuscripts at http://www.hindawi.com
Journal of
Computer Networks and Communications
âAdvancesâinâ
Artificial Intelligence Hindawi Publishing Corporation http://www.hindawi.com
HindawiâPublishingâCorporation http://www.hindawi.com
Volume 2014
International Journal of
Biomedical Imaging
Volumeâ2014
Advances in
Artificial Neural Systems
International Journal of
Computer Engineering
Computer Games Technology
Hindawi Publishing Corporation http://www.hindawi.com
Hindawi Publishing Corporation http://www.hindawi.com
Advances in
Volume 2014
Advances in
Software Engineering Volume 2014
Hindawi Publishing Corporation http://www.hindawi.com
Volume 2014
Hindawi Publishing Corporation http://www.hindawi.com
Volume 2014
Hindawi Publishing Corporation http://www.hindawi.com
Volume 2014
International Journal of
Reconfigurable Computing
Robotics Hindawi Publishing Corporation http://www.hindawi.com
Computational Intelligence and Neuroscience
Advances in
Human-Computer Interaction
Journal of
Volume 2014
Hindawi Publishing Corporation http://www.hindawi.com
Volume 2014
Hindawi Publishing Corporation http://www.hindawi.com
Journal of
Electrical and Computer Engineering Volume 2014
Hindawi Publishing Corporation http://www.hindawi.com
Volume 2014
Hindawi Publishing Corporation http://www.hindawi.com
Volume 2014