source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.h @ 4015

Last change on this file since 4015 was 4015, checked in by matszpk, 4 months ago

CLRadeonExtender: AsmRegAlloc?: Move typedefs and classes into AsmRegAlloc?.h.

File size: 9.5 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#ifndef __CLRX_ASMREGALLOC_H__
21#define __CLRX_ASMREGALLOC_H__
22
23#include <CLRX/Config.h>
24#include <iostream>
25#include <vector>
26#include <utility>
27#include <unordered_set>
28#include <unordered_map>
29#include <map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38#define ASMREGALLOC_DEBUGDUMP 0
39
40namespace CLRX
41{
42
43typedef AsmRegAllocator::CodeBlock CodeBlock;
44typedef AsmRegAllocator::NextBlock NextBlock;
45typedef AsmRegAllocator::SSAInfo SSAInfo;
46typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
47
48//  BlockIndex
49
50struct CLRX_INTERNAL BlockIndex
51{
52    size_t index;
53    size_t pass;
54   
55    BlockIndex(size_t _index = 0, size_t _pass = 0)
56            : index(_index), pass(_pass)
57    { }
58   
59    bool operator==(const BlockIndex& v) const
60    { return index==v.index && pass==v.pass; }
61    bool operator!=(const BlockIndex& v) const
62    { return index!=v.index || pass!=v.pass; }
63   
64    BlockIndex operator+(size_t p) const
65    { return BlockIndex(index+p, pass); }
66};
67
68};
69
70#if ASMREGALLOC_DEBUGDUMP
71extern CLRX_INTERNAL std::ostream& operator<<(std::ostream& os, const CLRX::BlockIndex& v);
72#endif
73
74namespace std
75{
76
77/// std::hash specialization for CLRX CString
78template<>
79struct hash<BlockIndex>
80{
81    typedef BlockIndex argument_type;    ///< argument type
82    typedef std::size_t result_type;    ///< result type
83   
84    /// a calling operator
85    size_t operator()(const BlockIndex& r1) const
86    {
87        std::hash<size_t> h1;
88        return h1(r1.index) ^ h1(r1.pass);
89    }
90};
91
92}
93
94namespace CLRX
95{
96
97class CLRX_INTERNAL CBlockBitPool: public std::vector<bool>
98{
99public:
100    CBlockBitPool(size_t n = 0, bool v = false) : std::vector<bool>(n<<1, v)
101    { }
102   
103    reference operator[](BlockIndex i)
104    { return std::vector<bool>::operator[](i.index + (i.pass ? (size()>>1) : 0)); }
105    const_reference operator[](BlockIndex i) const
106    { return std::vector<bool>::operator[](i.index + (i.pass ? (size()>>1) : 0)); }
107};
108
109/** Simple cache **/
110
111// map of last SSAId for routine, key - varid, value - last SSA ids
112class CLRX_INTERNAL LastSSAIdMap: public
113            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
114{
115public:
116    LastSSAIdMap()
117    { }
118   
119    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
120    {
121        auto res = insert({ vreg, { ssaId } });
122        if (!res.second)
123            res.first->second.insertValue(ssaId);
124        return res.first;
125    }
126   
127    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
128    {
129        auto it = find(vreg);
130        if (it != end())
131             it->second.eraseValue(ssaId);
132    }
133   
134    size_t weight() const
135    { return size(); }
136};
137
138typedef LastSSAIdMap RBWSSAIdMap;
139typedef std::unordered_map<BlockIndex, VectorSet<BlockIndex> > SubrLoopsMap;
140
141struct CLRX_INTERNAL RetSSAEntry
142{
143    std::vector<BlockIndex> routines;
144    VectorSet<size_t> ssaIds;
145    size_t prevSSAId; // for curSSAId
146};
147
148typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
149
150struct CLRX_INTERNAL LoopSSAIdMap
151{
152    LastSSAIdMap ssaIdMap;
153    bool passed;
154};
155
156struct CLRX_INTERNAL RoutineData
157{
158    // rbwSSAIdMap - read before write SSAId's map
159    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
160    std::unordered_map<AsmSingleVReg, size_t> origRbwSSAIdMap;
161    LastSSAIdMap curSSAIdMap;
162    LastSSAIdMap lastSSAIdMap;
163    // key - loop block, value - last ssaId map for loop end
164    std::unordered_map<BlockIndex, LoopSSAIdMap> loopEnds;
165    bool notFirstReturn;
166    size_t weight_;
167   
168    RoutineData() : notFirstReturn(false), weight_(0)
169    { }
170   
171    void calculateWeight()
172    {
173        weight_ = rbwSSAIdMap.size() + lastSSAIdMap.weight();
174        for (const auto& entry: loopEnds)
175            weight_ += entry.second.ssaIdMap.weight();
176    }
177   
178    size_t weight() const
179    { return weight_; }
180};
181
182struct CLRX_INTERNAL FlowStackEntry
183{
184    BlockIndex blockIndex;
185    size_t nextIndex;
186    bool isCall;
187    bool haveReturn;
188    RetSSAIdMap prevRetSSAIdSets;
189};
190
191struct CLRX_INTERNAL FlowStackEntry2
192{
193    size_t blockIndex;
194    size_t nextIndex;
195};
196
197struct CLRX_INTERNAL FlowStackEntry3
198{
199    size_t blockIndex;
200    size_t nextIndex;
201    bool isCall;
202    RetSSAIdMap prevRetSSAIdSets;
203};
204
205
206struct CLRX_INTERNAL CallStackEntry
207{
208    BlockIndex callBlock; // index
209    size_t callNextIndex; // index of call next
210    BlockIndex routineBlock;    // routine block
211};
212
213typedef std::unordered_map<BlockIndex, RoutineData> RoutineMap;
214
215typedef std::unordered_map<size_t, std::pair<size_t, size_t> > PrevWaysIndexMap;
216
217class CLRX_INTERNAL ResSecondPointsToCache: public CBlockBitPool
218{
219public:
220    explicit ResSecondPointsToCache(size_t n) : CBlockBitPool(n<<1, false)
221    { }
222   
223    void increase(BlockIndex ip)
224    {
225        const size_t i = ip.index + (ip.pass ? (size()>>2) : 0);
226        if ((*this)[i<<1])
227            (*this)[(i<<1)+1] = true;
228        else
229            (*this)[i<<1] = true;
230    }
231   
232    cxuint count(BlockIndex ip) const
233    {
234        const size_t i = ip.index + (ip.pass ? (size()>>2) : 0);
235        return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1];
236    }
237};
238
239typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
240typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
241
242#if ASMREGALLOC_DEBUGDUMP
243#define ARDOut std::cout
244#else
245struct NoOutput
246{
247    template<typename T>
248    NoOutput& operator<<(const T& v)
249    { return *this; }
250};
251
252#define ARDOut NoOutput()
253#endif
254
255struct Liveness
256{
257    std::map<size_t, size_t> l;
258   
259    Liveness() { }
260   
261    void clear()
262    { l.clear(); }
263   
264    void join(std::map<size_t, size_t>::iterator it)
265    {
266        if (it != l.begin())
267        {
268            auto prevIt = it;
269            --prevIt;
270            if (prevIt->second >= it->first)
271            {
272                // join with previous region
273                prevIt->second = it->second;
274                l.erase(it);
275                it = prevIt;
276            }
277        }
278       
279        auto nextIt = it;
280        ++nextIt;
281        if (nextIt != l.end())
282        {
283            if (nextIt->first <= it->second)
284            {
285                // join with next region
286                it->second = nextIt->second;
287                l.erase(nextIt);
288            }
289        }
290    }
291   
292    void expand(size_t k)
293    {
294        auto it = l.lower_bound(k);
295        if (it != l.begin())
296            --it;
297        else // do nothing
298            return;
299        if (it->first <= k && it->second > k)
300        {
301            // we need expand previous region to this
302            if (it==l.begin())
303                return;
304            --it;
305        }
306        it->second = k+1;
307        join(it);
308    }
309    void newRegion(size_t k)
310    { join(l.insert(std::make_pair(k, k)).first); }
311   
312    void insert(size_t k, size_t k2)
313    { join(l.insert(std::make_pair(k, k2)).first); }
314   
315    bool contain(size_t t) const
316    {
317        auto it = l.lower_bound(t);
318        if (it==l.begin() && it->first>t)
319            return false;
320        if (it==l.end() || it->first>t)
321            --it;
322        return it->first<=t && t<it->second;
323    }
324};
325
326typedef AsmRegAllocator::VarIndexMap VarIndexMap;
327
328typedef std::deque<FlowStackEntry3>::const_iterator FlowStackCIter;
329
330struct CLRX_INTERNAL VRegLastPos
331{
332    size_t ssaId; // last SSA id
333    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
334};
335
336typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
337
338struct CLRX_INTERNAL LiveBlock
339{
340    size_t start;
341    size_t end;
342    size_t vidx;
343   
344    bool operator==(const LiveBlock& b) const
345    { return start==b.start && end==b.end && vidx==b.vidx; }
346   
347    bool operator<(const LiveBlock& b) const
348    { return start<b.start || (start==b.start &&
349            (end<b.end || (end==b.end && vidx<b.vidx))); }
350};
351
352typedef AsmRegAllocator::LinearDep LinearDep;
353typedef AsmRegAllocator::EqualToDep EqualToDep;
354typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
355typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
356
357typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
358
359struct CLRX_INTERNAL EqualStackEntry
360{
361    EqualToDepMapCIter etoDepIt;
362    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
363};
364
365typedef AsmRegAllocator::InterGraph InterGraph;
366
367struct CLRX_INTERNAL SDOLDOCompare
368{
369    const InterGraph& interGraph;
370    const Array<size_t>& sdoCounts;
371   
372    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
373        : interGraph(_interGraph), sdoCounts(_sdoCounts)
374    { }
375   
376    bool operator()(size_t a, size_t b) const
377    {
378        if (sdoCounts[a] > sdoCounts[b])
379            return true;
380        return interGraph[a].size() > interGraph[b].size();
381    }
382};
383
384};
385
386#endif
Note: See TracBrowser for help on using the repository browser.